https://www.faz.net/-gsf-7pxl4

Recht auf Vergessenwerden : Die bittere Pille Demokratie

  • -Aktualisiert am

Möglichst viele Informationen im Netz schaffen nicht unbedingt die besten Informationen Bild: dpa

Das Recht auf Vergessenwerden hat einen guten Grund: Es geht darum, das Selbstgefühl gewöhnlicher Menschen zu schützen. Wenn wir zulassen, dass Unternehmen mitbestimmen, ist das eine Form zentralisierter Macht.

          8 Min.

          Kürzlich erhielt ich einen Anruf von der reizenden Maureen Dowd von der „New York Times“, die mich um einige Gedanken zum „Recht auf Vergessenwerden“ bat. Ich bin ein Anhänger dieses Rechts. Warum sollte ein Technologieunternehmen das Recht haben, sich darüber hinwegzusetzen, wie ein Mensch der Welt präsentiert oder nicht präsentiert werden möchte? Ja, es gibt besondere Fälle wie Pädophile und so weiter; aber wie steht es um normale Menschen: Warum sollte man ihnen nicht den Raum, den Respekt und das Vertrauen einräumen, eine gewisse Kontrolle über die eigene Geschichte zu behalten? Geht es in der Demokratie nicht darum, andere Menschen zu respektieren? Möchten wir nicht, dass die Menschen einen gewissen Raum für die Erfindung ihrer selbst und für ein wenig Geheimnis haben?

          Ein Bekannter von mir, James Gleick, erhielt gleichfalls einen Anruf von Dowd mit derselben Bitte, und er übernahm den Gegenpart. Er befürchtete, das Recht auf Vergessen werde das Internet letztlich „lobotomieren“.

          Ich teile mit James Gleick und den meisten Menschen den Wunsch nach leistungsfähigen Suchmaschinen und, mehr noch, nach leistungsfähigen Informationssystemen, die es der Menschheit durch immer bessere Technologie ermöglichen, ihrer Verantwortung für sich selbst gerecht zu werden. Ohne Big Data wüssten wir gar nichts vom Klimawandel; deshalb ist es sehr wichtig, dass wir uns im Blick auf Big Data nicht selbst lobotomieren.

          Köder für die Algorithmen

          Geht es hier nur um konkurrierende Interessen? Die entscheidende Frage lautet, ob wir es uns leisten können, das Recht auf Vergessenwerden zu unterstützen, ohne dadurch eine Lobotomie zu riskieren. Hier ein paar Argumente, warum das Recht auf Vergessenwerden weniger einer Lobotomie gleicht, sondern eher einem Glas Rotwein. Wir können damit umgehen.

          Wer auf das Internet angewiesen ist, um Aufmerksamkeit auf sich zu lenken, muss schwachsinnige Verrenkungen anstellen, um die Google-Algorithmen anzulocken. Journalisten sind gezwungen, ihre Artikel mit Sätzen zu pfeffern, die nicht ihren Lesern, sondern einem von Technikern in Kalifornien kontrollierten Algorithmus gefallen. Es mag absurd erscheinen, aber sonst bleibt ihr Text möglicherweise vollkommen unsichtbar.

          Informatiker, Erfinder, Komponist, bildender Künstler und viel beachteter Autor: Jaron Lanier
          Informatiker, Erfinder, Komponist, bildender Künstler und viel beachteter Autor: Jaron Lanier : Bild: action press

          Offensichtlich ist dieser Prozess entwürdigend und lächerlich. Aber es gibt noch eine weitere Ebene, die berücksichtigt werden sollte; sie betrifft die Leistungsstärke der Technologien, und ich hoffe, meine Technikerkollegen werden sie zur Kenntnis nehmen.

          Die großen Datenmengen, wie sie zum Beispiel Google sammelt, werden auch für die Entwicklung von Algorithmen „maschinellen Lernens“ verwendet, die zur Lösung großer Probleme beitragen sollen. So könnte etwa die Sammlung von Daten zur Energienutzung aller Mitglieder der Gesellschaft zum Aufbau eines sehr viel effizienteren Energiesystems beitragen, das von größtem Nutzen für die Gesellschaft und das Klima wäre.

          Blitze aus heiterem Himmel

          Aber aufgrund des aktuellen Umgangs mit der Gesellschaft sind heute alle motiviert, bei jenen Daten zu lügen, die überhaupt der Cloud zugänglich gemacht werden. Als ich von dem Spanier hörte, der nicht länger im Zusammenhang mit einer weit zurückliegenden Immobilienpfändung genannt werden wollte, kam mir sogleich ein Erlebnis aus der Zeit in den Sinn, als Google noch winzig klein, niedlich und brandneu war.

          Einer der ersten Google-Ingenieure, ein Freund von mir, rief mich an und erzählte mir von einem Fall, der ihm Sorgen bereitete. Das war noch vor der Zeit, als Google sich in eine geheime Festung verwandelte. Es war noch ganz üblich, dort über allerlei Internes zu reden.

          Eine junge Frau hatte Google völlig aufgelöst angerufen. Sie war Studentin, etwa so alt wie der Ingenieur, und hatte in irgendeinem Online-Chat über einen Urin-Fetisch geredet. Diese kurze Gespräch, eines von Tausenden, bestimmte nun ihr Leben, obwohl sie gar nicht mehr daran gedacht hatte, bis Google es zeigte. Wer auch immer nun nach ihr suchte, fand dieses Urin-Thema ganz oben in der Ergebnisliste. Es war in ihrer Familie, ihrem Job und ihren sozialen Beziehungen zu einer zerstörerischen Kraft geworden.

          Der Ingenieur und ich unterhielten uns darüber in unserem Freundeskreis. Das Problem erschien damals noch anders als heute. Die junge Frau gehörte zu den ersten Menschen, die von einem Problem dieser Art betroffen waren, und das ohne jede Vorwarnung, wie ein Blitz aus heiterem Himmel. So lautete denn damals die Frage: „Möchten wir, dass die Menschen sich online ehrlich äußern, oder möchten wir, dass sie aus diesem Beispiel lernen und lieber vorsichtig und unehrlich sind?“ Natürlich wollten wir, dass sie sich ehrlich äußern. Es ist für uns alle von großem Nutzen, wenn es „in der Cloud“ sehr viel aufrichtige Information gibt; aber wenn wir den Menschen beibringen, Informationen zurückzuhalten oder Scheinbilder zu erzeugen, leidet darunter die Qualität der Cloud als Messinstrument.

          Geschwindigkeit als höchste Priorität

          Aus ganz ähnlichen Gründen setzt man bei medizinischen Versuchen Doppelblindverfahren ein. Auch der Polizei oder den Gesundheitsbehörden können wir Informationen anonym zukommen lassen. Es wäre naiv, wenn man meinte, möglichst viele Informationen zu sammeln führte dazu, dass auch die bestmögliche Information online verfügbar wäre. Bei Daten über Menschen kann dieser Ansatz das Gegenteil bewirken und zu einer gewaltigen Flut unzuverlässiger Informationen führen.

          Zurück zum Urin-Dilemma. Die Google-Ingenieure diskutierten lange über Strategien zur Verbesserung der Informationsqualität, die den Menschen möglichst wenig Anreiz zum Lügen geben sollten. Eine der damals besprochenen Ideen war das Recht auf Vergessenwerden, auch wenn man es damals noch nicht so nannte. Dabei ging es nicht um Menschenrechte, sondern um das Ziel, bessere Daten zu erhalten. Man dachte, wenn der Einzelne die Möglichkeit hätte, das Bild zu korrigieren, das man der Gesellschaft von ihm präsentierte, dann gäbe es keinen Grund mehr, das Netz mit falschen Daten zu überfluten.

          Wie weit entfernt und wie naiv erscheint diese Zeit aus heutiger Sicht. Wir haben längst gelernt, in sozialen Netzwerken ein hochgradig frisiertes Bild von uns zu zeichnen und Gespräche über Dinge nach Art des Urin-Themas in öffentlichen Foren zu meiden. Ich fürchte, wir legen inzwischen uns selbst gewisse Beschränkungen auf und nicht nur dem Bild, das wir online abgeben.

          Geschwindigkeit genießt in den Silicon-Valley-Firmen oberste Priorität. Die Ingenieure von damals hatten schon bald kaum noch Zeit für Diskussionen über die Frage, ob ein Algorithmus das Leben einer jungen Frau ruiniert hatte oder ob irgendwann in der Zukunft damit zu rechen sei, dass alle sich online nur noch mit größerer Vorsicht äußerten. Ins Zentrum rückte stattdessen die fröhliche Krise des raschen Wachstums.

          Eine Liste von „Minusbegriffen“

          Es gibt für eine bestimmte Fähigkeit immer mehrere technische Lösungen. Wir müssen uns nicht immer für die zerstörerischste Möglichkeit entscheiden. Mechanismen für ein Recht auf Vergessenwerden lassen sich technisch realisieren, sofern wir einsehen, dass es hier eigentlich um das Recht geht, im Dunkeln zu bleiben. Google gibt inzwischen viel Geld aus für den Kampf gegen den äußerst geschickten Cyber-Leech-Sektor, der versucht, mit falschen Angaben hohe Positionen auf den Ergebnislisten von Suchmaschinen zu erschleichen. Wenn das Unternehmen lernen kann, gegen diese Gegner anzukommen, wird es sicher auch Möglichkeiten finden können, Informationen zu unterdrücken, die das Selbstgefühl gewöhnlicher Menschen verletzen.

          Eine vollständige Garantie dafür, dass keine Information zu irgendeinen Thema jemals angezeigt wird, lässt sich nur schwer erreichen. Den Menschen die Möglichkeit zu geben, bestimmte Informationskategorien für unbedeutend zu erklären, wird ebenfalls nie eine vollkommene Lösung sein, aber näherungsweise wäre dies durchaus machbar. Man könnte zum Beispiel in der entgegengesetzten Weise verfahren, wie es die Suchmaschinen gegenwärtig bei der Werbung tun. Man könnte zum Beispiel die Möglichkeit haben, bestimmte Suchbegriffe mit dem eigenen Namen zu verbinden und sie mit einem Minuszeichen zu versehen. Wenn jemand nach dem Namen des Spaniers suchte, würde das inkriminierte Dokument nicht mehr angezeigt, wenn sein Name zum Beispiel mit dem Begriff „-Pfändung“ versehen wäre, und bei der jungen Frau entsprechend mit dem Begriff „-Urin“. Google und andere Suchmaschinen müssten sich bereiterklären, die Liste der „Minusbegriffe“ geheim zu halten.

          Diese Lösung ließe sich sehr schnell realisieren. Sie wäre nicht perfekt. Es gäbe sicher Möglichkeiten, das Verfahren zu umgehen, und es bedurfte einer gewissen Entwicklung, bis das Design zuverlässig funktionierte, aber das ist bei Online-Diensten immer so.

          Ich präsentiere diese Idee für ein simples Design hier nur, um deutlich zu machen, dass es bei diesem Vorschlag nicht um „alles oder nichts“ geht. Wir brauchen keine gewaltigen Umbauarbeiten am Internet vorzunehmen, um es an das Recht auf Vergessenwerden anzupassen. Ich hoffe, Regulierer und Technologieunternehmen werden flexibel genug und bereit sein, einige alternative Möglichkeiten zu erkunden, um ein neues Gleichgewicht herzustellen.

          Ein bizarres Arrangement

          Es gibt keine vollkommen unparteiische Suchmaschine. Deshalb hat es keinen Sinn, an einem Ideal festzuhalten, das in Wirklichkeit eine falsche Darstellung ist. Entscheidend ist nicht das millionste Suchergebnis, entscheidend sind die Ergebnisse, die oben auf der Liste erscheinen. Google justiert seine Algorithmen ständig neu und mit gewaltigen Folgen für kleinere Unternehmen, denn Google ist auf vielen Gebieten das wichtigste Drehkreuz für Informationen. Diese Unbeständigkeit ist der Hauptgrund, weshalb kleinere Unternehmen Google für ein Link-Placement bezahlen (außerhalb des eigentlichen Raums für „Anzeigen“, aber letztlich ist es dasselbe). Mit anderen Worten: Es kommt nicht auf die Beschaffenheit des Algorithmus an, solange er sich nur von Zeit zu Zeit in zerstörerischer Weise ändert. Das zwingt die Leute zum Kauf von Anzeigen.

          Das ganze Arrangement ist bizarr. Wenn es einen Algorithmus für ein perfektes Ranking der Suchergebnisse gäbe, könnten alle sich entspannt zurücklehnen, weil sie wüssten, dass ihr Geschäft bei den Kunden bekannt würde, die davon noch am meisten profitierten. Und niemand bräuchte sich Sorgen wegen alter Nachrichten zu machen, weil die Suchmaschine natürlich relevanten Nachrichten den Vorzug gäbe, die neueren Datums wären.

          Aber gerade das kapriziöse Verhalten der Suchergebnisse macht es erforderlich, für zusätzliche, „Anzeigen“ genannte Suchergebnisse. Google und andere Suchmaschinen werden dafür bezahlt, dass sie zwar leistungsstark genug sind, um zu verlocken, aber nicht leistungsstark genug, um auch zu liefern. Für mich roch das immer ein wenig nach Erpressung oder nach dem „Schutzgeld“, das im organisierten Verbrechen verlangt wird.

          Also gibt es eigentlich gar keinen Hirnlappen, den man lobotomieren könnte. Wir müssten solch einen Lappen erst einmal wachsen lassen. Wenn wir unparteiische Suchergebnisse haben wollten, die nicht durch die Interessen eines einzelnen Spaniers oder eines Großunternehmens wie Google verfälscht würden, wäre es der einfache und nächstliegende Schritt, bezahltes Link-Placement zu verbieten. Die Gesellschaft sollte ein Interesse an der Förderung eines echten, unparteiischen Internet haben, aber im Augenblick geschieht fast genau das Gegenteil.

          Wir können den Technologieunternehmen nicht zu viel Macht geben, ohne dem Staat zu viel Macht zu geben. Wenn wir eine Überwachungsökonomie aufbauen – und genau das tun Unternehmen wie Google und Amazon gegenwärtig –, dann sind wir nur noch um Haaresbreite von einem Überwachungsstaat entfernt. Zentralisierte Macht ist zentralisierte Macht. Und wenn wir zulassen, dass gigantische Unternehmen zur Clearingstelle für unser aller Identität werden, dann ist das eine Form zentralisierter Macht.

          Information ist Macht

          Wer einen Beweis für dieses simple Prinzip haben möchte, der schaue sich das Hauptargument gegen ein Recht auf Vergessenwerden an: „Pädophile und Betrüger könnten Sie ungehindert erreichen, und die Suchmaschinen wären nicht in der Lage, Sie davor zu schützen.“ Genau auf dieses Argument greift auch ein übermäßig zudringlicher Staat zurück, nur dass er in der Regel vor allem auf Terroristen verweist.

          Pädophile, Betrüger und Terroristen gibt es, und es ist wichtig, dass wir vor ihnen geschützt werden; aber es gibt mehr als nur eine Möglichkeit, das zu tun. Wir sollten uns lieber auf Polizei, Justiz und militärische Einrichtungen verlassen, denn sie sind gut fokussiert und werden gut überwacht.

          Information ist Macht. In einer hypothetischen absoluten Diktatur wüsste der Diktator alles über alle, aber niemand sonst wüsste irgendetwas, sofern der Diktator dies nicht will. In der realen Welt können Diktaturen niemals absolut sein, aber manche Diktaturen sind dieser fernen Grenze gefährlich nahe gekommen.

          Doch wer sollte in einer Demokratie was wissen? Diese Frage ist schwieriger zu beantworten. Es kann kein absolutes Ideal einer Demokratie geben, nicht einmal in der Theorie, denn in der Demokratie geht es ganz um ein Auskommen zwischen Menschen, und Menschen sind inkonsequent, manchmal sogar widersprüchlich und sehr veränderlich.

          Deshalb ist Demokratie für manche idealistischen Nerds eine bittere Pille. Aber in der Demokratie geht es darum, dass Menschen mit anderen Menschen auskommen. Wenn wir nicht einmal die eher leichte Last tragen können, anderen Menschen Raum zur Selbstbestimmung zu geben, disqualifizieren wir uns für die Teilhabe an der Demokratie.

          Jaron Lanier

          Der Informatiker, Erfinder, Komponist, bildende Künstler und Autor Jaron Lanier gilt als Urheber des Begriffs „virtuelle Realität“. Als „Lead Scientist“ betreut er die „National Tele-immersion Initiative“, ein Projekt verschiedener Universitäten zur Erforschung des „Internet 2“. Er lehrt an der School of The Arts der Universität von New York sowie an der Columbia University und hat das International Institute for Evolution and Brain mitgegründet, das an der Harvard- und der Universität von Paris angesiedelt ist. Lanier hat als Erster internetbasierte Computer-Netzwerke vorgeschlagen, den ersten „Avatar“ entwickelt, die virtuelle Kamera fürs Fernsehen und 3D-Grafiken fürs Kino. 1983 hat er mit „Moondust“ das erste Videospiel vorgestellt. Zuletzt erschien von ihm „Wem gehört die Zukunft? Du bist nicht der Kunde der Internetkonzerne. Du bist ihr Produkt“ (2014).

          (F.A.Z.)

          Weitere Themen

          Topmeldungen

          Kanzlerkandidat der Union : Schluss mit Zaudern

          Nun ist es amtlich: Markus Söder will Kanzlerkandidat der Union werden. Doch das Rennen mit Armin Laschet ist noch nicht vorbei.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.