https://www.faz.net/-gwz-8y9go

Algorithmen gegen Fake News : Die Wahrheitsmaschinen

  • -Aktualisiert am

Um Falschmeldungen aus seinen Suchergebnissen zu verbannen, setzt Google auf menschliche Hilfe. Der Algorithmus lernt dazu. Bild: dpa

Künstliche Intelligenz soll gefälschte Nachrichten identifizieren. Doch den kritischen Umgang mit Neuigkeiten kann dem Menschen am Ende keine Software abnehmen.

          Nach dem Anschlag von Manchester zeigte sich mal wieder, dass soziale Medien im Internet nichts anders als Werkzeuge sind. Und zwar solche, mit denen man durchaus Gutes tun kann. So machte über den Kurznachrichtendienst Twitter das Schlagwort #RoomForManchester die Runde. Gerichtet war es an Menschen, die an diesem Montagabend in der Stadt gestrandet waren. Anwohner und Hotels boten ihnen Obdach. Unter #MissingInManchester suchten gleichzeitig Angehörige und Freunde nach Hinweisen zu Vermissten.

          Aber es zeigte sich an diesem Beispiel eben auch, dass Twitter und Facebook Werkzeuge sind, mit denen man Schlechtes tun kann. Denn unter den vermeintlich Vermissten tauchten Fotos von Menschen auf, die mit dem Anschlag gar nichts zu tun hatten. Es kursierte etwa das Bild eines Teenagers, versehen mit dem Kommentar: „Mein Sohn war heute in der Manchester Arena. Er geht nicht ans Telefon, bitte helft mit!“ Zigtausende Profile auf Twitter leiteten das Foto weiter. Bis sich der junge Mann selbst in einer Videonachricht zu Wort meldete. Er sei wohlauf und lebe in den Vereinigten Staaten. Irgendwer hatte sich mit seinem Foto einen bösen Scherz erlaubt. Es war nur eine von vielen Geschmacklosigkeiten dieser Art. Schnell war von „Fake News“ die Rede.

          Wer im Internet Lügen verbreitet, findet ein globales Publikum

          Man findet derzeit unzählige Beispiele für diese Art von Irreführung. Während die Motive hinter den gefälschten Vermisstenmeldungen wohl Gehässigkeit und Geltungsdrang waren, spielen in anderen Fällen politische Absichten eine Rolle. So wurde der Grünen-Politikerin Renate Künast im Zusammenhang mit dem Mord an der Studentin Maria folgendes Zitat in den Mund gelegt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Auf Facebook wurde ein Flüchtling, der ein Selfie mit Kanzlerin Merkel geschossen hatte, mit Gewalttaten in Verbindung gebracht. Und nach der Schlacht um Aleppo kursierte auf Twitter das Bild eines Mädchens, das zwischen Leichen umherirrte. Es sollte die Brutalität des syrischen Militärs verdeutlichen, war aber eine Fotomontage aus alten Aufnahmen.

          Obwohl es sich bei derartiger Propaganda um kein neues Phänomen handelt, ist der Begriff Fake News derzeit allgegenwärtig. Denn Lügen, Gerüchte und Falschmeldungen haben mit den sozialen Medien eine neue Dimension erreicht. Jeder, der sich daran beteiligt, findet ein globales Publikum. Wer nicht selbst Fake News in Umlauf bringt, kann deren Botschaften zumindest verstärken, indem er sie weiterleitet oder mit „Gefällt mir“ markiert. Oder es übernehmen gleich Programme, die sich als Menschen ausgeben, diese Aufgabe. Schließlich sind die Algorithmen der sozialen Medien darauf programmiert, dem Nutzer ständig neue Inhalte zu präsentieren, die ihm gefallen könnten. Wer gerne Fake News einer bestimmten politischen Richtung liest, bekommt immer mehr davon. Weil soziale Medien und Algorithmen die entscheidende Rolle beim Aufkommen von Fake News spielen, liegt der Gedanke nahe, dass Algorithmen dieses Problem auch lösen könnten.

          Nicht immer gibt es Fakten, auf die sich alle einigen können

          Das mag sich auch Dean Pomerleau gedacht haben. Der Experte für maschinelles Lernen von der Carnegie Mellon University im amerikanischen Pittsburgh versprach auf Twitter jedem Programmierer tausend Dollar Belohnung, der imstande sei, einen Algorithmus zur Erkennung von Fake News zu entwickeln. Mittlerweile ist daraus der „Fake News Challenge“ geworden, ein Wettbewerb, an dem gut vierzig Forschergruppen teilnehmen. Die Ergebnisse sollen Mitte Juni veröffentlicht werden. Doch ausgerechnet Pomerleau macht sich wenig Hoffnungen, dass dabei ein automatisches System zur Entlarvung von Lügen entstehen wird. „Das würde bedeuten, dass künstliche Intelligenz das Niveau von menschlicher Intelligenz erreicht hat“, sagte er dem Magazin „Wired“. Er hält das für äußerst unwahrscheinlich.

          Weitere Themen

          Der „zensierte“ Präsident

          Trumps Social-Media-Gipfel : Der „zensierte“ Präsident

          Präsident Donald Trump lädt zu einem Social-Media-Gipfel ins Weiße Haus ein. Rechtskonservative Internetaktivisten diskutieren, wie sie die Basis für Trump aktivieren können – und beklagen die „Zensur“ rechter Parolen im Internet.

          Kunstwerk ohne Rechte

          KI-erzeugte Kurzfilme : Kunstwerk ohne Rechte

          Eine Künstliche Intelligenz namens Jan Bot produziert im Eye Filmmuseum jeden Tag mehrere kleine Filme. Das stellt nicht nur Juristen vor die Frage: Wer ist der Autor, wenn Roboter Filme drehen? Eine Diskussion in Frankfurt.

          Topmeldungen

          Großbritannien und Iran : Zwei Tanker und eine Retourkutsche

          Kritiker werfen der Regierung in London vor, sie sei vom Machtkampf um die Nachfolge Mays abgelenkt. Tut sie zu wenig für die Sicherheit der britischen Schiffe im Persischen Golf?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.