https://www.faz.net/-gwz-9snw5
Foto: dpa

Ein halbes Jahrhundert im Internet

Von PIOTR HELLER
Foto: dpa

28.10.2019 · Das Netz der Netze wird 50. Die Macht, Dinge zu verändern, steckt von Anfang an in seiner Struktur. Doch auch die wandelt sich gerade.

Manche Geschichten offenbaren ihren wahren Sinn erst auf den zweiten Blick. Die vom ersten Wort des Internets ist so ein Fall. Sie spielt fast auf den Tag genau vor 50 Jahren. Am 29. Oktober 1969 saßen der Professor Leonard Kleinrock und einer seiner Studenten vor dem Computer der University of California in Los Angeles. Es war 22.30 Uhr. Sie hatten ihren Rechner über eine gemietete Telefonleitung mit dem Computer des 500 Kilometer nördlich gelegenen Stanford Research Institute verbunden. Aus diesem frühen Computernetzwerk sollte sich später das Internet entwickeln. Zweck der Übung war es, sich von Los Angeles aus am Computer in Stanford anzumelden. Die Forscher mussten dafür den Befehl „LOG“ über die Datenleitung schicken. Der andere Computer würde das „IN“ vervollständigen – LOGIN. Sie tippten das L ein. Es kam an. Das O ebenfalls. Dann war Schluss. Beim G stürzte der Rechner in Stanford ab.

Die erste Nachricht, die je über das Internet verschickt wurde, war somit ein nichtssagendes „LO“. Man könnte das als vertane Gelegenheit ansehen. Hätten sich die Forscher doch nur einen klugen Spruch überlegt, er hätte die Chance gehabt, so wie der „große Sprung für die Menschheit“ in das kollektive Gedächtnis einzugehen. Doch dieses Urteil greift zu kurz. Die Geschichte zeigt eigentlich etwas anderes, nämlich, dass die Nachrichten in diesem Netzwerk gar nicht dafür gedacht waren, von Menschen vernommen zu werden. Es wäre sinnlos gewesen, einen vielsagenden Satz zu verschicken, denn im Internet sollten Computer miteinander sprechen. Für diese Aufgabe war die grundlegende Funktionsweise des Netzwerks ausgelegt. Sie hat sich bis heute erhalten.

Die beiden Rechner in Los Angeles und Stanford waren die ersten Knoten des Arpanet. Mit diesem Netzwerk wollte die „Advanced Research Projects Agency“, eine Forschungsbehörde des amerikanischen Verteidigungsministeriums, die wertvolle Ressource Rechenleistung vielen Wissenschaftlern zugänglich machen. Das Computernetz musste anders funktionieren als das Telefonnetz, welches bis dahin das dominierende Kommunikationsmittel war. Bei einem klassischen Telefongespräch ist eine Leitung exklusiv für die Gesprächsteilnehmer reserviert. Wenn Menschen miteinander reden, ist das sinnvoll, denn nur selten schweigen beide. Wenn aber Computer kommunizieren, kann es sein, dass lange Zeit gar keine Daten übertragen werden. Es würde sich nicht lohnen, die teuren Datenleitungen für diese Stille zu reservieren.

Die Entwickler des Arpanet mussten also mehrere Verbindungen über eine Leitung laufen lassen. Sie wählten dafür das Konzept der Paketvermittlung. Dabei teilt man eine lange Nachricht in kleine Pakete auf, lässt sie unabhängig voneinander durchs Netzwerk wandern und setzt sie am Ende wieder zu der Nachricht zusammen. Auf diese Weise lassen sich die Pakete von mehreren Computern – von mehreren Verbindungen – fast gleichzeitig über eine Leitung schicken. Leonard Kleinrock hatte bereits 1962 in seiner Doktorarbeit gezeigt, dass dieses Prinzip für die Datenübertragung optimal ist. Erst sieben Jahre später, mit den ersten Datenverbindungen des Arpanet, konnte er es testen.

Gut eine Stunde nach dem anfänglichen Absturz klappte der Login. Das Arpanet funktionierte. Im Dezember hatte es dann schon vier Knoten, im darauffolgenden Sommer erstreckte es sich bis zur Ostküste. Zum Internet wurde es aber erst über Umwege. 1970 wollte auch die University of Hawaii beim Arpanet mitmachen. Weil ihre Gebäude über vier Inseln verstreut waren und die Telefonleitungen nicht für die Datenübertragung taugten, entschied der Elektrotechnik-Professor Norman Abramson, die Datenpakete zu funken. Doch in der Luft gingen manche Pakete verloren. Die Lösung waren strenge Regeln, nach denen die Knoten des Funknetzes arbeiteten. Nachdem ein Knoten ein Paket verschickt hatte, musste er auf eine Empfangsbestätigung des Zielknotens warten. Kam diese nicht an, würde er das Paket nach einiger Zeit erneut senden und lauschen.

Inspiriert von dieser sogenannten „Aloha-Methode“, baute die Arpa ihr eigenes funkbasiertes „Packet Radio Network“ (PRNet) auf. Außerdem unterhielt sie eine satellitengestützte Verbindung nach Norwegen, an der Rechner in Europa hingen, das Satnet. Diese Netzwerke nutzten alle verschiedene „Protokolle“ – hatten sozusagen ihre eigenen Sprachen. An den Grenzen zwischen den Netzen konnte es deshalb zu Problemen kommen. Daher entwickelten die Informatiker Bob Kahn und Vint Cerf ein gemeinsames Protokoll, auf dessen Basis alle Netzwerke arbeiten sollten: das „Transmission Control Protocol“, kurz TCP. Dadurch vernetzten sie die Netze miteinander, „Internetworking“ hieß dieses Konzept. So entstand das Internet, das bis heute aus einer Ansammlung von Netzwerken besteht, die über gemeinsame Protokolle miteinander sprechen.

Im Juli 1977 demonstrierten die Forscher, was ihr Konzept konnte. Sie packten einen Computer in einen Kastenwagen und ließen ihn auf dem Bayshore Freeway nahe San Francisco fahren. Über das PRNet schickte der Computer Pakete an das Arpanet, das die Daten wiederum an die Ostküste leitete. Von da aus ging es über das Satnet nach Norwegen, dann nach London, dann wieder zurück an die Westküste. Die Pakete wanderten über drei Netzwerke, zwei Kontinente und legten insgesamt 150.000 Kilometer zurück. „Wir haben kein einziges Bit verloren“, erinnerte sich Vint Cerf später.


Die Entwicklung wurde vom Pentagon bezahlt. Ob die Idee aber zuerst militärisch motiviert war, ist unklar.

Darin bezeichnet er das Experiment auch als „mobiles Schlachtfeld-Szenario“. Diese Einschätzung erinnert daran, dass das Verteidigungsministerium für das Arpanet zahlte. Das Netzwerk war mit militärischen Ambitionen verknüpft. Überhaupt hatte das Konzept der Paketvermittlung eine militärische Seite: Bereits 1962 hatte der Informatiker Paul Baran ein dezentrales, paketvermittelndes Netzwerk vorgeschlagen, mit dem die Kommandostände der Streitkräfte nach einem Nuklearangriff hätten kommunizieren können. Denn selbst wenn große Teile eines solchen Netzwerks zerstört worden wären, könnten die Pakete über die funktionierenden Teile ausweichen. Der Autor Johnny Ryan schreibt in seinem Buch „A History of the Internet and the Digital Future“, dass heute nicht klar ist, welchen Einfluss Barans Ideen auf die Macher des Arpanet hatten. Die Robustheit, die TCP dem Netz verlieh, spiegelt zumindest die der atombombensicheren Vision Barans wider.

Der Kern von TCP ist das Ende-zu-Ende Prinzip. Das Protokoll läuft als ein Programm auf den Computern, die an ein Netzwerk angeschlossen sind, also sozusagen an den Endpunkten des Netzes. Diese Computer verschicken die Pakete und prüfen, ob sie ankommen – so ähnlich wie bei der Aloha-Methode aus Hawaii. Dadurch kommen sie auch mit unzuverlässigen Netzwerken zurecht, solange diese nach den Regeln des Protokolls funktionieren.

Das war die eigentliche Revolution. Vorher waren die Kommunikationsnetze komplexe Gebilde, an denen simple Geräte hingen. Das Telefonnetz ist ein klassisches Beispiel dafür. Wer das Netz besaß, hatte somit viel Macht. Das Internet war anders. Hier waren die Netzwerke vergleichsweise simpel, und die Komplexität und Intelligenz hing an ihren Enden, bei den Computern, die das Netz nicht nur nutzten, sondern auch steuerten. Das Internet verteilte somit die Macht an die Menschen, die an diesen Computern saßen. Weil es dem Netz egal war, was in den Paketen steckte, konnten sich diese Menschen die verschiedensten Anwendungen überlegen. Es entstanden die E-Mail und das World Wide Web, also die Ansammlung von Websites, die umgangssprachlich mit dem Internet gleichgesetzt wird. So wie das Internet technisch gesehen die Macht neu verteilte, brachten die Anwendungen im Netz die Machtstrukturen der realen Welt ins Wanken. Soziale Medien versprachen, jedem eine Stimme zu geben, und zerstörten somit die Vormachtstellung der klassischen Medien bei der Meinungsbildung. Die Wikipedia legt die Bewahrung von Wissen in die Hände gewöhnlicher Internetnutzer. Tauschbörsen krempelten die Musikindustrie um. Portale für das Video-Streaming wie etwa Netflix verändern derzeit die Filmindustrie.

Vom Laborprojekt zum Massenmedium: Inzwischen ist mehr als die halbe Weltbevölkerung online und Videos, bestehend aus großen Dateien, müssen schnell verschickt werden. 1) 2016 bis 2020 Schätzungen/Prognose / Quellen: Cisco/theatlas.com; telegeography.com / F.A.Z.-Grafik: Heumann

Diese Anwendungen wurden möglich, weil das Internet sich zu einem kommerziellen Produkt gewandelt hatte. Nachdem in den Achtzigern mit den Personal Computern Rechner für die Massen auftauchten, wollten diese Massen auch ans Netz. Firmen wie AOL bauten ihre eigenen Netzwerke im Internet auf und boten den Konsumenten zunächst Zugang zu bestimmten Diensten wie E-Mail. Dann kamen die ersten echten Internetprovider, über deren Netze die Nutzer direkten Zugriff auf das Internet bekamen. Hatte 1997 noch jeder fünfzigste Mensch auf der Welt Zugang zum Internet, war es zehn Jahre später schon jeder fünfte. Heute ist die halbe Weltbevölkerung online. Doch mittlerweile ist dem Internet der Platz ausgegangen.

Das Internet basiert nicht nur auf TCP, sondern auch auf anderen Protokollen. Ein entscheidendes ist das sogenannte „Internetprotokoll“ IP. Es regelt, wie die Pakete ihren Weg durch die Netze finden. Für jeden Computer im Internet sieht es eine Adresse vor. Diese IP-Adressen waren ursprünglich 32 Bit lang, das heißt, dass man damit theoretisch zwei hoch 32 oder rund 4,3 Milliarden Rechner numerieren konnte. In den Siebzigern war das eine nahezu unvorstellbar große Zahl an Computern. „Um das Jahr 1990 herum sagten die Internetvisionäre: Dieser Adressraum von 4,3 Milliarden wird uns irgendwann ausgehen“, erinnert sich Geoff Huston, der heute Chefwissenschaftler der asiatisch-pazifischen Verwaltung für Internetressourcen ist. Die Internet Engineering Task Force, eine Organisation, die Standards für das Netz entwirft, dachte sich ein neues Internetprotokoll aus. Es hieß IP Version 6 (IPv6) und sollte Platz für 2 hoch 128 Adressen haben – eine 39-stellige Zahl.

Doch die Umstellung auf dieses neue Protokoll war für die Betreiber der Netzwerke, aus denen das Internet bestand, mit Kosten verbunden. Aber in der Zwischenzeit passierte noch etwas anderes. Die kommerziellen Anbieter, die ihre Kunden über Modems ans Internet anschlossen, gaben zunächst jedem Modem eine eindeutige IP-Adresse. Aber die Kunden konnten in ihren Häusern mehrere Computer an die Modems anschließen. Die Computer mussten sich dann die eine Adresse teilen. Das war über einen Trick möglich, bei dem das Netzwerk sozusagen mit IP-Adressen jongliert.

Ein Großteil des Datenverkehrs kommt mittlerweile aus Rechenzentren in der Nähe der Nutzer. Anbieter von Inhalten wie Google oder Facebook kaufen jetzt Internet-Infrastruktur. 1) 2016 bis 2020 Schätzungen/Prognose / Quellen: Cisco/theatlas.com; telegeography.com / F.A.Z.-Grafik: Heumann

Über die Jahre haben die Internetanbieter diese Methode ausgeweitet, um mit ihren begrenzten IP-Adressen auszukommen. Heute hängen deutlich mehr Geräte am Internet, als es alte 32-Bit-IP-Adressen gibt. Das hat direkte Folgen für die Möglichkeiten der Nutzer: Sie können über ihre Computer das Internet nur konsumieren und keine eigenen Dienste anbieten. Die meisten merken davon im Alltag nichts – sie sind schließlich Konsumenten des kommerziellen Produkts Internet. Die Umstellung auf IPv6 derweil ist ins Stocken geraten. Derzeit gibt es sowohl alte als auch neue IP-Adressen im Netz, nur etwa ein Viertel aller Internetnutzer verfügt über eine IPv6-Adresse. „Es ist schon merkwürdig, wir haben es als einfacher empfunden, die komplette Architektur des Internets umzukrempeln, als ein Protokoll auszutauschen“, sagt Geoff Huston. Dass der Umstieg auf IPv6 nicht so gelang, wie die Macher des Protokolls es sich erhofft hatten, liegt wieder an der dezentralen Natur des Internets. Das Netz hat nämlich nicht nur technisch gesehen kein Zentrum, sondern auch hinsichtlich der Verwaltung. Es gibt keine Organisation, die das Internet lenkt. Die Betreiber der einzelnen Netze können selbst entschieden, was sie tun. Wenn sie IPv6 nicht einführen wollen, dann ist das eben so.

Aktuell befindet sich das Internet in einem weiteren Umbruch. Der hat etwas damit zu tun, dass es sich zu einem Echtzeitmedium entwickelt hat. Das liegt zum Teil an den Cloud-Anwendungen. Wenn zum Beispiel jemand virtuelle Assistenten wie Siri oder Alexa über Sprachbefehle steuert, dann wird seine Stimme über das Internet verschickt und in einem Rechenzentrum analysiert – das muss schnell gehen. Mit dem automatisierten Fahren oder virtueller Realität werden weitere datenintensive und auf Schnelligkeit ausgelegte Anwendungen hinzukommen. Zudem sind heute schon 75 Prozent aller Daten, die über das Netz wandern, Videos. Sie bestehen aus großen Dateien und müssen auch rasch ans Ziel. Das alles lässt die Mengen der im Internet übertragenen Daten exponentiell steigen.

Zwar gibt es technische Fortschritte bei der Übertragungstechnik: Forscher quetschen dank moderner Lasertechnik immer mehr Daten in kürzerer Zeit durch Glasfaserkabel, und der Mobilfunkstandard 5G verspricht größere Bandbreiten bei kleineren Verzögerungen. Das alles reicht aber nicht, um die Massen an Daten ständig quer über den Globus zu schicken. Das Internet ändert daher seine Struktur.


Im Zeitalter von Youtube und Netflix wird es eng im Internet. Es funktioniert noch, weil es sich ändert.

Wenn sich jemand heute in Deutschland ein Video über Youtube anschaut, dann bezieht sein Computer die Daten nicht über Seekabel aus dem Silicon Valley. Das Video kommt stattdessen wahrscheinlich aus sogenannten Content Delivery Networks. Es sind Netzwerke aus Datenzentren, die auf der ganzen Welt verteilt sind. Die Anbieter von Inhalten im Internet wie Youtube oder Netflix speichern darauf ihre Daten. Wenn ein Nutzer dann ein Video abrufen will, verbindet er sich mit einem solchen Datenzentrum in seiner Nähe und bezieht es von dort. Fast 70 Prozent des Internetverkehrs kommen aus solchen Datenzentren, die geographisch relativ nah am Nutzer sind.

Das ist eine massive Veränderung, denn ursprünglich bestand das kommerzielle Internet aus verschiedenen Netzen, die von Internetdienstanbietern betrieben wurden. Es gab kleine, lokale Netze, größere landesweite und solche, die mit den Glasfaser-Seekabeln die ganze Welt umspannten. Über diese Netze flossen die Daten der Inhalte-Anbieter zu den Kunden. Durch die Content Delivery Networks zerfällt dieses globale Netz zu kleinen, regionalen Spiegelbildern des eigentlichen Internets, von denen aus die immer gleichen Inhalte zu den Nutzern gepumpt werden. Um diese Spiegelbilder auf dem neuesten Stand zu halten, müssen die Anbieter der Inhalte sie mit ihren Daten bespielen. Das tun sie heute nicht nur über die Netze der Internetprovider, sondern bauen und kaufen selbst Glasfaserkabel unter dem Meer. Mehr als die Hälfte der Bandbreite dieser Seekabel gehört heute den Anbietern von Inhalten und nicht mehr den klassischen Betreibern des Internets.

Es bricht eine Zeit an, in der eine Handvoll sehr erfolgreicher Firmen wie Google, Microsoft und Facebook nicht nur die Inhalte ins Netz einspeisen, sondern immer mehr Teile seiner Infrastruktur kontrollieren. In ihren Netzen können sie eigene Regeln durchsetzen, Konkurrenten das Leben schwermachen, Inhalte filtern. Außerdem könnte es sich für die Internetprovider irgendwann nicht mehr lohnen, die Produkte kleiner Internetfirmen schnell über große Strecken zu verschicken.

Noch sind die Digitalgiganten auf Dritte angewiesen. Zum Beispiel auf die lokalen Internetanbieter, die Inhalte von den Datenzentren in die Häuser der Nutzer bringen. „Es ist aber nicht klar, wie lange das noch so bleiben wird“, sagt Geoff Huston. Tatsächlich testet Googles Mutterkonzern Alphabet inzwischen Heliumballons, die Menschen in entlegenen Regionen mit Internet versorgen. In manchen amerikanischen Ortschaften bringt das Unternehmen Glasfaser-Internet zu den Häusern seiner Kunden. Facebook wiederum bietet in Schwellen- und Entwicklungsländern kostenfreie mobile Internetzugänge an. „All das lässt darauf schließen“, sagt Huston, „dass diese großen Unternehmen eine direkte Verbindung zum Nutzer haben wollen.“

Es kann also sein, dass das Nutzerverhalten, der Hunger nach Videos, das Internet zum Schlechten wandelt. Dass dadurch die Macht, die dieses Netz dereinst an seine Endpunkte verteilt hat, immer mehr in die Hände einiger Großkonzerne fällt, die somit in Zukunft die Spielregeln bestimmten werden. Man kann aber auch sagen, dass die Macht im Internet immer noch bei den Nutzern liegt. Schließlich sind es deren Wünsche, die es mit seinem aktuellen Wandel erfüllt.


Nächstes Kapitel:

Fragen an Leonard Kleinrock, den Neil Armstrong des Internets


Foto: UCLA Samueli

Der erste Mann im Netz

PIOTR HELLER
Foto: UCLA Samueli

Fragen an Leonard Kleinrock, den Neil Armstrong des Internets

Professor Kleinrock, vor 50 Jahren haben Sie in der Nacht die erste Nachricht über ein Netzwerk verschickt, das später zum Internet werden sollte. Hatten Sie damals eine Ahnung, was Sie auslösen würden?

In dieser Nacht ahnten wir das nicht. Niemand wusste, was für ein großer Sprung das war. Wobei, in einer Pressemitteilung hatte ich Monate vorher vorausgesagt, dass dieses Netzwerk irgendwann immer da sein würde, es jeder benutzen könnte und es so simpel sein werde wie Elektrizität. Was ich aber übersehen habe, war, dass irgendwann meine 99-jährige Mutter, die inzwischen verstorben ist, und meine Enkelin gleichzeitig das Internet nutzen würden. Ich habe die soziale Seite übersehen. Mein Bild von Internet war, dass Menschen mit Computern sprechen würden und Computer untereinander. Nicht, dass Menschen darüber mit Menschen sprechen würden. Das habe ich erst 1972 erkannt, als E-Mails plötzlich den Löwenanteil des Datenverkehrs für sich beanspruchten.

Sie haben sich bereits 1962 in Ihrer Doktorarbeit mit Prinzipien befasst, nach denen später Daten im Internet übertragen werden sollten. Was hat Sie daran interessiert?

Ich hatte eine Frau, mein erstes Kind war geboren – ich wollte gar keine Doktorarbeit schreiben. Ich wollte einen Job. Aber mein Betreuer am MIT bestand darauf. Ich sagte unter der Bedingung zu, etwas tun zu dürfen, das Einfluss haben würde. Ich war damals umgeben von Computern und wusste, dass sie irgendwann miteinander kommunizieren würden. Es gab aber keine gute Technologie dafür. Ich hatte eine Idee, einen Ansatz mit dem Namen Warteschlangentheorie.

Foto: AFP

Kann man die an einem Beispiel erklären?

Wenn eine große und eine kleine Datei durch eine Datenleitung gehen sollen, dann kann es passieren, dass die große vor der kleinen landet und die kleine daher sehr lange warten muss. Man kann die Dateien aber in winzige Stücke aufteilen und sie abwechselnd bedienen. Erst ein Stück von der einen, dann ein Stück von der anderen, dann wieder ein Stück von der ersten. Die kleine Datei schafft es dann relativ schnell durchs Netzwerk. Das habe ich mathematisch analysiert.

Eine theoretische Arbeit also. Aber Sie sagten doch, Sie wollten etwas bewegen?

Ich konnte Netzwerke simulieren und zeigen, dass meine Vorhersagen richtig waren. Aber es stimmt schon, um das umzusetzen, mussten wir ein Netzwerk bauen. Das sollte aber erst 1969 passieren. Jahrelang habe ich geforscht ohne eine Chance, meine Ideen zur Anwendung zu bringen. Das war schon enttäuschend.

Dieses frühe Netzwerk, das Arpanet, sollte Ressourcen schonen, indem es Computer verbindet. Aber es ranken sich viele Gerüchte um die militärische Komponente dieser Entwicklung. Wie militärisch war Ihre Forschung?

Mir wurde niemals gesagt, ich sollte an etwas mit militärischer Anwendung arbeiten. Andererseits forschte ich zwar an einer Universität, aber unser Geld kam von der Arpa, die zum Verteidigungsministerium gehörte. Irgendwo da oben muss es die Erwartung gegeben haben, die Forschung würde militärische Früchte tragen. Aber es kam nie zu uns durch. Zum Glück.

Das Internet hat zu riesigen Umwälzungen geführt. Was verleiht der Technologie diese Macht?

Die Technologie demokratisiert. Jeder kann in kürzester Zeit, ohne viel Geld und anonym Millionen von Menschen erreichen. Es gibt also jedem eine Stimme. Aber durch diese Anonymität und Reichweite können sich böse Menschen als die Guten ausgeben, und sie können Unwahrheiten verbreiten. Die Technologie hat also auch diese dunkle Seite, die ist sehr gefährlich.

Sie haben sechs Enkel. Es gibt ja dieses Klischee vom Großvater, dem die Enkel mühevoll das Internet erklären müssen. Wie ist das in Ihrer Familie?

Genau so! Meine jüngste Enkelin ist 17, und sie kommt mit meinem Smartphone besser klar als ich. Sie zeigt mir auch neue Dienste. Sie ist da besser angepasst, weil sie damit aufgewachsen ist.

Und erinnern Sie ihre Enkelin daran, dass Sie das Ding sozusagen erfunden haben?

Nein, aber die Kinder wissen tatsächlich nicht mehr, wie die Sachen funktionieren. Sie können ihr Smartphone nicht aufschrauben, sie wissen nicht, was eine schnelle Datenverbindung wirklich ist. Aber langsam ändert sich das wieder. Mit kleinen Bastelcomputern wie dem Raspberry Pi und mit 3D-Druckern machen sich Kinder wieder die Hände schmutzig. So wie ich, als ich Modellflugzeuge und Detektorradios gebaut habe. Wenn man sich die Hände nicht schmutzig macht, versteht man nicht, was hinter den Dingen steckt.


Quelle: F.A.Z.

Veröffentlicht: 28.10.2019 08:23 Uhr