http://www.faz.net/-gwz-8y9go

Algorithmen gegen Fake News : Die Wahrheitsmaschinen

  • -Aktualisiert am

Um Falschmeldungen aus seinen Suchergebnissen zu verbannen, setzt Google auf menschliche Hilfe. Der Algorithmus lernt dazu. Bild: dpa

Künstliche Intelligenz soll gefälschte Nachrichten identifizieren. Doch den kritischen Umgang mit Neuigkeiten kann dem Menschen am Ende keine Software abnehmen.

          Nach dem Anschlag von Manchester zeigte sich mal wieder, dass soziale Medien im Internet nichts anders als Werkzeuge sind. Und zwar solche, mit denen man durchaus Gutes tun kann. So machte über den Kurznachrichtendienst Twitter das Schlagwort #RoomForManchester die Runde. Gerichtet war es an Menschen, die an diesem Montagabend in der Stadt gestrandet waren. Anwohner und Hotels boten ihnen Obdach. Unter #MissingInManchester suchten gleichzeitig Angehörige und Freunde nach Hinweisen zu Vermissten.

          Aber es zeigte sich an diesem Beispiel eben auch, dass Twitter und Facebook Werkzeuge sind, mit denen man Schlechtes tun kann. Denn unter den vermeintlich Vermissten tauchten Fotos von Menschen auf, die mit dem Anschlag gar nichts zu tun hatten. Es kursierte etwa das Bild eines Teenagers, versehen mit dem Kommentar: „Mein Sohn war heute in der Manchester Arena. Er geht nicht ans Telefon, bitte helft mit!“ Zigtausende Profile auf Twitter leiteten das Foto weiter. Bis sich der junge Mann selbst in einer Videonachricht zu Wort meldete. Er sei wohlauf und lebe in den Vereinigten Staaten. Irgendwer hatte sich mit seinem Foto einen bösen Scherz erlaubt. Es war nur eine von vielen Geschmacklosigkeiten dieser Art. Schnell war von „Fake News“ die Rede.

          Wer im Internet Lügen verbreitet, findet ein globales Publikum

          Man findet derzeit unzählige Beispiele für diese Art von Irreführung. Während die Motive hinter den gefälschten Vermisstenmeldungen wohl Gehässigkeit und Geltungsdrang waren, spielen in anderen Fällen politische Absichten eine Rolle. So wurde der Grünen-Politikerin Renate Künast im Zusammenhang mit dem Mord an der Studentin Maria folgendes Zitat in den Mund gelegt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Auf Facebook wurde ein Flüchtling, der ein Selfie mit Kanzlerin Merkel geschossen hatte, mit Gewalttaten in Verbindung gebracht. Und nach der Schlacht um Aleppo kursierte auf Twitter das Bild eines Mädchens, das zwischen Leichen umherirrte. Es sollte die Brutalität des syrischen Militärs verdeutlichen, war aber eine Fotomontage aus alten Aufnahmen.

          Obwohl es sich bei derartiger Propaganda um kein neues Phänomen handelt, ist der Begriff Fake News derzeit allgegenwärtig. Denn Lügen, Gerüchte und Falschmeldungen haben mit den sozialen Medien eine neue Dimension erreicht. Jeder, der sich daran beteiligt, findet ein globales Publikum. Wer nicht selbst Fake News in Umlauf bringt, kann deren Botschaften zumindest verstärken, indem er sie weiterleitet oder mit „Gefällt mir“ markiert. Oder es übernehmen gleich Programme, die sich als Menschen ausgeben, diese Aufgabe. Schließlich sind die Algorithmen der sozialen Medien darauf programmiert, dem Nutzer ständig neue Inhalte zu präsentieren, die ihm gefallen könnten. Wer gerne Fake News einer bestimmten politischen Richtung liest, bekommt immer mehr davon. Weil soziale Medien und Algorithmen die entscheidende Rolle beim Aufkommen von Fake News spielen, liegt der Gedanke nahe, dass Algorithmen dieses Problem auch lösen könnten.

          Nicht immer gibt es Fakten, auf die sich alle einigen können

          Das mag sich auch Dean Pomerleau gedacht haben. Der Experte für maschinelles Lernen von der Carnegie Mellon University im amerikanischen Pittsburgh versprach auf Twitter jedem Programmierer tausend Dollar Belohnung, der imstande sei, einen Algorithmus zur Erkennung von Fake News zu entwickeln. Mittlerweile ist daraus der „Fake News Challenge“ geworden, ein Wettbewerb, an dem gut vierzig Forschergruppen teilnehmen. Die Ergebnisse sollen Mitte Juni veröffentlicht werden. Doch ausgerechnet Pomerleau macht sich wenig Hoffnungen, dass dabei ein automatisches System zur Entlarvung von Lügen entstehen wird. „Das würde bedeuten, dass künstliche Intelligenz das Niveau von menschlicher Intelligenz erreicht hat“, sagte er dem Magazin „Wired“. Er hält das für äußerst unwahrscheinlich.

          Weitere Themen

          Grüner wird’s nicht Video-Seite öffnen

          Urban Gardening : Grüner wird’s nicht

          Gemeinschaftliches Stadtgärtnern ist beliebt und weit verbreitet. Aber die Gesellschaft verändert sich dadurch noch nicht. Ein Besuch bei Frankfurter Initiativen zeigt: Das Projekt Urban Gardening müsste noch viel größer gedacht werden.

          Topmeldungen

          Nachruf auf Philip Roth : Ein Riese unter den Großen

          Witz und Rücksichtslosigkeit beim Blick auf sich selbst und seine Gesellschaft waren seine Prinzipien, den Nobelpreis hätte er hochverdient: Zum Tod des amerikanischen Schriftstellers Philip Roth.

          Neue Umfrage : Rekordzustimmung für die EU

          Die Finanzkrise und die Flüchtlingswelle haben das Ansehen der EU einst beschädigt. Nun ist es so gut wie noch nie – besonders in einem großen Land.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.