Peer-to-Peer: Die Erneuerung des verteilten Rechnens

Peer-to-Peer-Applikationen stoßen heute auf technische Abhängigkeiten, die mit der Ausweitung des Webs einhergehen: von der dynamischen Adressvergabe, die ihren Einsatz unmöglich macht, über Sicherheits-Software bis zu den unterschiedlichen Bandbreiten. Ideal wäre es, zum Ur-Modell des Internet zurückzukehren, in dem es diese Restriktionen nicht gab. Eine heikle Sache, in technischer wie in ethischer Hinsicht.

Die Bandbreite
Im Vergleich mit der klassischen Weise, Dateien per E-Mail oder FTP über das Internet auszutauschen, bietet die Verwendung eines Programms zum unmittelbaren Austausch den Vorteil, eine direkte Verbindung ohne Zwischenstation zwischen dem Absender einer Datei und dem Cybernauten herzustellen. Man muss nun nicht mehr warten, bis der Besitzer der Datei sich endlich dazu durchringt, diese abzuschicken oder auf einem FTP-Server abzulegen, man muss sich bloß mit seinem Rechner verbinden.

Selbstverständlich hängt die Geschwindigkeit, mit der man die Dateien herunterladen kann, von der Verbindung zwischen den Rechnern ab. Wenn also ein Rechner über eine 512 kBit/s-Anbindung verfügt, der andere aber bloß über eine Telefonleitung, können die 56 kBit/s des Modems nicht überschritten werden. Mit dem Aufkommen von ADSL und Kabelnetzen bleibt eine der Herausforderungen bei Peer-to-Peer-Netzwerken die Verwaltung der Bandbreite. Nun haben aber die Anbieter von Bandbreite den asymmetrischen Netzen Vorrang gegeben, indem sie größere Bandbreiten für den Downstream (vom Server zum User) als für den Upstream zur Verfügung stellen.

Zwar hatte diese Konfiguration bisher keine Probleme für den User, doch ändert sich das beim Peer-to-Peer: Die Anwender werden künftig im selben Maße Dateien herunterladen wie versenden wollen. Der Dateiaustausch kann so die Verwendung der Bandbreite umkehren, indem ein Rechner mehr Daten verschickt als empfängt. Es ist offensichtlich, dass die Netze zurzeit dieser Nachfrage an Upload-Kapazität nicht gerecht werden können. Schlimmer noch, wenn der Upstream-Kanal benutzt wird, kann das negative Auswirkungen auf den Downstream-Kanal haben, sodass die Datenrate katastrophal wird. Das Asymmetrische Modell, in dem ein Rechner als Client oder als Server agiert, ist nicht an Peer-to-Peer-Applikationen angepasst. Zukünftige breitbandige Verbindungen müssen verstärkt die Symmetrie berücksichtigen. SDSL-Systeme (Symetric Digital Subscriber Line) haben diese Nachteile nicht, sie sind aber noch teuer und für die Anwender noch kaum verfügbar. Immerhin kann Caching die Dateitransfers optimieren, indem es verhindert, dass dieselben Daten mehrfach hochgeladen werden müssen. Im Idealfall müssten die User selbst das Bandbreitenvolumen festlegen, das für die Peer-to-Peer-Applikationen zur Verfügung steht.

Die Adressierung
Die Kommunikation zwischen den PCs stützt sich auf ein Namenssystem, das nicht auf dem DNS (Domain Name System) basieren kann, da die IP-Adressen der Client-Rechner in der Regel dynamisch vergeben werden und daher bei jeder Sitzung wechseln. Zudem muss die Applikation den Status des PCs erkennen können, also ob er online ist oder nicht. Dieses Hindernis kann leicht umgangen werden, indem ein Server, dessen Adresse fest und bekannt ist, die Kommunikation vermittelt.

In einem Intranet, dessen internes Adress-System es ermöglicht, feste IP-Adressen an die PCs zu vergeben, können diese Server ein verteiltes Adressbuch führen. Doch wie kann ein Rechner im Internet, wo ein solcher Server fehlt, in das Netz eintreten, das eine Peer-to-Peer-Applikation webt, wenn die Knoten praktisch nie eine feste Adresse haben?

Wenn ein User sich bei einem Rechner anmelden möchte, der online ist, muss er dessen IP-Adresse angeben, die er beispielsweise von einer Suchmaschine erhält, die das Internet nach anderen Anwendern dieser Applikation absucht. Dieser Vorgang hängt weniger vom Zufall ab, wenn die Computer permanent online sind und somit über statische IP-Adressen verfügen. Die technische Lösung für dieses Adressierungsproblem ist IPv6, die neue Version des Internet-Protokolls, das bald umgesetzt wird und erlaubt, jedem angeschlossenen Rechner eine statische IP-Adresse zu geben.

Die aktuelle Version IPv4 verwendet 32-Bit-Adressen. Theoretisch kann ein 32-Bit-Wort fast 4 Milliarden Rechner in der ganzen Welt adressieren. Auf den ersten Blick scheint diese enorme Zahl bei weitem ausreichend. Doch werden die Rechner nicht der Reihe nach durchnummeriert, sondern in Netzen zusammengefasst. Jedem Netz wird eine Nummer zugeteilt, die in einem Teil der 32 Bit der Rechneradresse kodiert wird. Wenn, was in der Regel geschieht, 16 Bit dem Teilnetz zugeteilt werden, dann liegt die Zahl der verfügbaren Netze bei nur noch 65.000. Wenn man 24 Bit zuteilt, hat man etwa 16 Millionen Netze zur Verfügung, was schon besser ist, aber immer noch wenig. Und selbst wenn tatsächlich 4 Mrd. Adressen zur Verfügung stünden, wäre die Grenze schnell erreicht.

Mit IPv6 wird man einen erheblich größeren Raum adressieren können. Das neue Protokoll verwendet 128-bit-Adressen, das Vierfache einer Ipv4-Adresse. Damit bietet es maximal 340 Trillionen Trillionen Trillionen Adressen, eine praktisch unendliche Menge. Die Umsetzung von IPv6 dürfte das Adressierungsproblem endgültig lösen.

Die Sicherheit
Sicherheit ist einer der Schwachpunkte von Peer-to-Peer-Netzwerken. Schon in traditionellen Netzen, die von einem zentralen Server abhängen, ist dieses Problem von größter Wichtigkeit, bei Peer-to-Peer-Architekturen ist es jedoch noch viel schwieriger, besonders, wenn der Cybernaut diejenigen, die online sind, identifizieren und die Dateitransfers sichern möchte. Ohne angemessene Administrationstools kann die Funktionsweise des Peer-to-Peer derjenigen von Viren ähnlich werden, die sich per E-Mail verbreiten: Die Information wird unkontrolliert von jedem Knoten des Netzes dupliziert und an alle anderen weitergereicht, mit denen er verbunden ist.

Zudem können Peer-to-Peer-Systeme, die wie ein Superrechner arbeiten, auch dazu verwendet werden, Verschlüsselungen zu knacken. Nichts hindert übelgesinnte User daran, ein paralleles Peer-to-Peer-Netz mit einem destruktiven Ziel einzurichten, ein Haupteinfallstor für Piraten, die durch das Einbrechen in den Rechner eines Users ohne Schwierigkeiten alle anderen damit Verbundenen treffen können.

Um den Sicherheitsproblemen zu begegnen, sind Firewalls mit Paketfiltern das Mittel der Wahl. Doch hindert die Verwendung von Firewalls einen Teil des Netzes daran, mit den anderen Teilen zu kommunizieren. Die meiste Zeit lässt diese Art Software den Datenstrom nach außen durch, unterbindet aber jeglichen Traffic ins Innere des Netzes. Die Mehrzahl der Firewalls lässt Verbindungen von außen über den berühmten Port 80 zu, selbst wenn die Sicherheitspolitik gegenüber ankommenden Daten sehr restriktiv ist. Firewalls stellen die Modelle von Peer-to-Peer-Kommunikation vor ernsthafte Probleme. Doch da inzwischen einige Anwendungen begonnen haben, den Datenstrom über den Port 80 zu leiten, ist eine Firewall bald zu nichts mehr nütze… Das ist aber eher unangenehm, vor allem innerhalb eines Netzwerks.

Will man Sinn und Wirksamkeit der Firewalls erhalten, ist die einzige Lösung, zunehmend intelligente Systeme einzusetzen. So könnten beispielsweise die Peer-to-Peer-Applikationen mit den Sicherheitssystemen kooperieren und den erwünschten Datenverkehr erlauben. Einer der ersten Fortschritte in dieser Richtung betrifft das Protokoll SOCKS, das allerdings noch verbessert werden muss.

Themenseiten: IT-Business, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Peer-to-Peer: Die Erneuerung des verteilten Rechnens

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *