http://www.faz.net/-gwz-8y9go

Algorithmen gegen Fake News : Die Wahrheitsmaschinen

  • -Aktualisiert am

Um Falschmeldungen aus seinen Suchergebnissen zu verbannen, setzt Google auf menschliche Hilfe. Der Algorithmus lernt dazu. Bild: dpa

Künstliche Intelligenz soll gefälschte Nachrichten identifizieren. Doch den kritischen Umgang mit Neuigkeiten kann dem Menschen am Ende keine Software abnehmen.

          Nach dem Anschlag von Manchester zeigte sich mal wieder, dass soziale Medien im Internet nichts anders als Werkzeuge sind. Und zwar solche, mit denen man durchaus Gutes tun kann. So machte über den Kurznachrichtendienst Twitter das Schlagwort #RoomForManchester die Runde. Gerichtet war es an Menschen, die an diesem Montagabend in der Stadt gestrandet waren. Anwohner und Hotels boten ihnen Obdach. Unter #MissingInManchester suchten gleichzeitig Angehörige und Freunde nach Hinweisen zu Vermissten.

          Aber es zeigte sich an diesem Beispiel eben auch, dass Twitter und Facebook Werkzeuge sind, mit denen man Schlechtes tun kann. Denn unter den vermeintlich Vermissten tauchten Fotos von Menschen auf, die mit dem Anschlag gar nichts zu tun hatten. Es kursierte etwa das Bild eines Teenagers, versehen mit dem Kommentar: „Mein Sohn war heute in der Manchester Arena. Er geht nicht ans Telefon, bitte helft mit!“ Zigtausende Profile auf Twitter leiteten das Foto weiter. Bis sich der junge Mann selbst in einer Videonachricht zu Wort meldete. Er sei wohlauf und lebe in den Vereinigten Staaten. Irgendwer hatte sich mit seinem Foto einen bösen Scherz erlaubt. Es war nur eine von vielen Geschmacklosigkeiten dieser Art. Schnell war von „Fake News“ die Rede.

          Wer im Internet Lügen verbreitet, findet ein globales Publikum

          Man findet derzeit unzählige Beispiele für diese Art von Irreführung. Während die Motive hinter den gefälschten Vermisstenmeldungen wohl Gehässigkeit und Geltungsdrang waren, spielen in anderen Fällen politische Absichten eine Rolle. So wurde der Grünen-Politikerin Renate Künast im Zusammenhang mit dem Mord an der Studentin Maria folgendes Zitat in den Mund gelegt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Auf Facebook wurde ein Flüchtling, der ein Selfie mit Kanzlerin Merkel geschossen hatte, mit Gewalttaten in Verbindung gebracht. Und nach der Schlacht um Aleppo kursierte auf Twitter das Bild eines Mädchens, das zwischen Leichen umherirrte. Es sollte die Brutalität des syrischen Militärs verdeutlichen, war aber eine Fotomontage aus alten Aufnahmen.

          Obwohl es sich bei derartiger Propaganda um kein neues Phänomen handelt, ist der Begriff Fake News derzeit allgegenwärtig. Denn Lügen, Gerüchte und Falschmeldungen haben mit den sozialen Medien eine neue Dimension erreicht. Jeder, der sich daran beteiligt, findet ein globales Publikum. Wer nicht selbst Fake News in Umlauf bringt, kann deren Botschaften zumindest verstärken, indem er sie weiterleitet oder mit „Gefällt mir“ markiert. Oder es übernehmen gleich Programme, die sich als Menschen ausgeben, diese Aufgabe. Schließlich sind die Algorithmen der sozialen Medien darauf programmiert, dem Nutzer ständig neue Inhalte zu präsentieren, die ihm gefallen könnten. Wer gerne Fake News einer bestimmten politischen Richtung liest, bekommt immer mehr davon. Weil soziale Medien und Algorithmen die entscheidende Rolle beim Aufkommen von Fake News spielen, liegt der Gedanke nahe, dass Algorithmen dieses Problem auch lösen könnten.

          Nicht immer gibt es Fakten, auf die sich alle einigen können

          Das mag sich auch Dean Pomerleau gedacht haben. Der Experte für maschinelles Lernen von der Carnegie Mellon University im amerikanischen Pittsburgh versprach auf Twitter jedem Programmierer tausend Dollar Belohnung, der imstande sei, einen Algorithmus zur Erkennung von Fake News zu entwickeln. Mittlerweile ist daraus der „Fake News Challenge“ geworden, ein Wettbewerb, an dem gut vierzig Forschergruppen teilnehmen. Die Ergebnisse sollen Mitte Juni veröffentlicht werden. Doch ausgerechnet Pomerleau macht sich wenig Hoffnungen, dass dabei ein automatisches System zur Entlarvung von Lügen entstehen wird. „Das würde bedeuten, dass künstliche Intelligenz das Niveau von menschlicher Intelligenz erreicht hat“, sagte er dem Magazin „Wired“. Er hält das für äußerst unwahrscheinlich.

          Weitere Themen

          Fake-News im Internet Video-Seite öffnen

          Soziale Netzwerke : Fake-News im Internet

          Falschinformationen im Internet sind heute Gang und Gäbe. Kreative Startups haben sich nun darauf spezialisiert, den Kommunikationsmüll aufzuräumen.

          Topmeldungen

          Martin Schulz (rechts) mit dem designierten SPD-Generalsekretär Lars Klingbeil

          Martin Schulz unter Druck : Vorsitzender auf Abruf

          Die SPD akzeptiert die Personalpolitik ihres Vorsitzenden nur mit Zähneknirschen. Für Martin Schulz wird der Weg bis zum Bundesparteitag im Dezember steinig.

          Bundestagsvizepräsident : Der Problem-Kandidat

          Wenn der Bundestag an diesem Dienstag seine Vizepräsidenten wählt, könnte es zum Eklat kommen. Dass der AfD-Kandidat Albrecht Glaser scheitert, gilt als sicher – aber was geschieht dann?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.