http://www.faz.net/-gwz-8y9go

Algorithmen gegen Fake News : Die Wahrheitsmaschinen

  • -Aktualisiert am

Um Falschmeldungen aus seinen Suchergebnissen zu verbannen, setzt Google auf menschliche Hilfe. Der Algorithmus lernt dazu. Bild: dpa

Künstliche Intelligenz soll gefälschte Nachrichten identifizieren. Doch den kritischen Umgang mit Neuigkeiten kann dem Menschen am Ende keine Software abnehmen.

          Nach dem Anschlag von Manchester zeigte sich mal wieder, dass soziale Medien im Internet nichts anders als Werkzeuge sind. Und zwar solche, mit denen man durchaus Gutes tun kann. So machte über den Kurznachrichtendienst Twitter das Schlagwort #RoomForManchester die Runde. Gerichtet war es an Menschen, die an diesem Montagabend in der Stadt gestrandet waren. Anwohner und Hotels boten ihnen Obdach. Unter #MissingInManchester suchten gleichzeitig Angehörige und Freunde nach Hinweisen zu Vermissten.

          Aber es zeigte sich an diesem Beispiel eben auch, dass Twitter und Facebook Werkzeuge sind, mit denen man Schlechtes tun kann. Denn unter den vermeintlich Vermissten tauchten Fotos von Menschen auf, die mit dem Anschlag gar nichts zu tun hatten. Es kursierte etwa das Bild eines Teenagers, versehen mit dem Kommentar: „Mein Sohn war heute in der Manchester Arena. Er geht nicht ans Telefon, bitte helft mit!“ Zigtausende Profile auf Twitter leiteten das Foto weiter. Bis sich der junge Mann selbst in einer Videonachricht zu Wort meldete. Er sei wohlauf und lebe in den Vereinigten Staaten. Irgendwer hatte sich mit seinem Foto einen bösen Scherz erlaubt. Es war nur eine von vielen Geschmacklosigkeiten dieser Art. Schnell war von „Fake News“ die Rede.

          Wer im Internet Lügen verbreitet, findet ein globales Publikum

          Man findet derzeit unzählige Beispiele für diese Art von Irreführung. Während die Motive hinter den gefälschten Vermisstenmeldungen wohl Gehässigkeit und Geltungsdrang waren, spielen in anderen Fällen politische Absichten eine Rolle. So wurde der Grünen-Politikerin Renate Künast im Zusammenhang mit dem Mord an der Studentin Maria folgendes Zitat in den Mund gelegt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Auf Facebook wurde ein Flüchtling, der ein Selfie mit Kanzlerin Merkel geschossen hatte, mit Gewalttaten in Verbindung gebracht. Und nach der Schlacht um Aleppo kursierte auf Twitter das Bild eines Mädchens, das zwischen Leichen umherirrte. Es sollte die Brutalität des syrischen Militärs verdeutlichen, war aber eine Fotomontage aus alten Aufnahmen.

          Obwohl es sich bei derartiger Propaganda um kein neues Phänomen handelt, ist der Begriff Fake News derzeit allgegenwärtig. Denn Lügen, Gerüchte und Falschmeldungen haben mit den sozialen Medien eine neue Dimension erreicht. Jeder, der sich daran beteiligt, findet ein globales Publikum. Wer nicht selbst Fake News in Umlauf bringt, kann deren Botschaften zumindest verstärken, indem er sie weiterleitet oder mit „Gefällt mir“ markiert. Oder es übernehmen gleich Programme, die sich als Menschen ausgeben, diese Aufgabe. Schließlich sind die Algorithmen der sozialen Medien darauf programmiert, dem Nutzer ständig neue Inhalte zu präsentieren, die ihm gefallen könnten. Wer gerne Fake News einer bestimmten politischen Richtung liest, bekommt immer mehr davon. Weil soziale Medien und Algorithmen die entscheidende Rolle beim Aufkommen von Fake News spielen, liegt der Gedanke nahe, dass Algorithmen dieses Problem auch lösen könnten.

          Nicht immer gibt es Fakten, auf die sich alle einigen können

          Das mag sich auch Dean Pomerleau gedacht haben. Der Experte für maschinelles Lernen von der Carnegie Mellon University im amerikanischen Pittsburgh versprach auf Twitter jedem Programmierer tausend Dollar Belohnung, der imstande sei, einen Algorithmus zur Erkennung von Fake News zu entwickeln. Mittlerweile ist daraus der „Fake News Challenge“ geworden, ein Wettbewerb, an dem gut vierzig Forschergruppen teilnehmen. Die Ergebnisse sollen Mitte Juni veröffentlicht werden. Doch ausgerechnet Pomerleau macht sich wenig Hoffnungen, dass dabei ein automatisches System zur Entlarvung von Lügen entstehen wird. „Das würde bedeuten, dass künstliche Intelligenz das Niveau von menschlicher Intelligenz erreicht hat“, sagte er dem Magazin „Wired“. Er hält das für äußerst unwahrscheinlich.

          Das Problem ist, dass schon Menschen darüber streiten, was Fake News überhaupt sind. Mittlerweile handelt es sich dabei um einen Kampfbegriff. In den Vereinigten Staaten stufen die klassischen Medien vor allem rechte Portale als Fake News ein, während Donald Trump die etablierten Medienhäuser selbst mit Vorliebe als Fake News bezeichnet. Ähnlich geht es bei umstrittenen Themen zu. Bei der Schuldfrage rund um den syrischen Giftgasangriff vom April sind die Vereinten Nationen noch zu keinem Urteil gekommen. Derweil werfen sich Unterstützer und Gegner der syrischen Regierung in dieser Frage gegenseitig vor, Fake News zu verbreiten. In solchen Fällen gibt es keine Fakten, auf die sich alle einigen können. Somit gibt es auch keine Grundlage, auf der ein Algorithmus entscheiden könnte.

          Beim Textverständnis scheitern Algorithmen

          In anderen Fällen – wie etwa beim vermeintlichen Künast-Zitat – gibt es dagegen Tatsachen, die der falschen Nachricht widersprechen. Man muss die Aussage dieser Nachricht aber verstehen, um diesen Widerspruch zu bemerken. Und darin sind Algorithmen heute noch nicht gut. Sie können zum Beispiel Muster erkennen, große Datenmengen sortieren oder bei Spielen wie Go oder Schach viele Züge im Voraus berechnen. Sie können auch einzelne Begriffe oder Stimmungen in Texten erkennen. Wenn es um das wirkliche Verständnis von Texten geht, scheitern sie noch auf ganzer Front.

          Diese Schwäche muss man also umgehen, wenn man einen Algorithmus entwickeln will, der gefälschte Aussagen erkennen soll. Das versuchen Forscher zum Beispiel in dem von der Europäischen Union geförderten Projekt „Pheme“. Es wurde 2014 ins Leben gerufen, als der Begriff Fake News noch weitgehend unbekannt war. Dafür kannte man Gerüchte, die sich blitzartig in sozialen Medien verbreiteten. „Was wir entwickelt haben, hat mit Verstehen nichts zu tun“, sagt der Computerlinguist Thierry Declerck von der Universität des Saarlandes: „Es geht nur darum, Verteilungen zu erkennen. Das ist reine Statistik.“

          Am Ende entscheidet doch der Mensch

          Das System analysiert den Nachrichtenstrom auf Twitter und sortiert die Mitteilungen anhand von Schlagwörtern. So findet es Themen, die gerade viel diskutiert werden, und präsentiert sie einem Nutzer. Dann gleicht es diese Schlagwörter mit vertrauenswürdigen Nachrichtenseiten oder Polizeimeldungen ab und setzt sie in einen Kontext. Von da an analysiert das System, wie sich die Diskussion entwickelt. Ebbt sie plötzlich ab? Tauchen Verben wie „bestätigen“ oder „bestreiten“, „berichtigen“ oder „verwerfen“ auf? Die können Indizien dafür sein, ob es sich um wahre oder falsche Gerüchte handelt.

          Ein mögliches Beispiel aus der Vergangenheit: Kurz nach dem Absturz der Germanwings-Maschine am 24. März 2015 verbreitete sich die Nachricht, dass der Pilot kurz vor dem Unglück einen Notruf abgesetzt habe. Dieses Gerücht hätte das System, wenn es schon im Einsatz gewesen wäre, zweifellos registriert. Rund zwei Stunden später meldete dann ein Journalist über Twitter unter Berufung auf die Luftfahrbehörde, dass dies unwahr sei. Daraufhin folgten im Minutentakt weitere Nachrichten, die das Gerücht widerlegten. Das System hätte diese Wendung an der Sprache und der Häufigkeit der Tweets erkannt und das Gerücht als widerlegt eingestuft.

          Die große Schwäche dieser Vorgehensweise liegt auf der Hand: „Wir können nicht von Anfang an sagen, ob ein Gerücht falsch ist“, sagt Declerck. Das System sei nur in der Lage, zu verfolgen, ob ein Thema hochkoche, um anschließend zu beobachten, ob es sich als Fake News erweise. Es könnte also als eine Art Hilfestellung für Journalisten dienen, die Entwicklungen in den sozialen Medien verfolgen. Eigenständig Falschmeldungen erkennen kann es nicht.

          Auf die Logik der sozialen Medien setzen

          Komplett von Inhalten losgelöst arbeitet ein Prototyp, den die Datenmanagement-Firma Glanos aus München entwickelt hat. Er setzt ganz auf die Logik sozialer Medien. „Wir schauen nur auf die Verbreitungswege“, sagt Geschäftsführer Gerhard Rolletschek. Für ihren Algorithmus haben die Daten-Experten eine Liste aus bekannten Multiplikatoren, Blogs und Konten in sozialen Medien erstellt, die in der Vergangenheit Fake News verbreitet haben. Ein selbstlernendes System untersuchte diese Liste und fand weitere Konten, die mit denen auf der Liste verbunden waren. Aus dieser Netzwerkanalyse entstand ein Modell von Fake-News-Verbreitungswegen, mit dem sich abschätzen lässt, ob neu gestreute Nachrichten der Wahrheit entsprechen oder nicht.

          Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat ebenfalls ein System entwickelt, das Manipulationen im Internet erkennen soll. Jedoch nicht solche in Texten, sondern in Bildern. Zu denen erstellt das „NewsVerifier“ genannte Programm zunächst eine Art Fingerabdruck. Damit prüft es, ob ein verdächtiges Bild bereits zuvor im Internet veröffentlich wurde. So kann es erkennen, wo und wann das Bild entstanden ist, und auch, ob es verändert wurde. „Wir führen außerdem eine Textanalyse durch, bei der wir den Kontext interpretieren, in dem das Bild vorkam“, sagt Andreas Dengel vom DFKI. Das liefere Hinweise, ob ein altes Bild aus dem Zusammenhang gerissen wurde.

          Als Beispiel präsentiert Dengel ein Foto, das zeigt, wie uniformierte Polizisten auf eine Frau eintreten. Im April 2013 war es auf Twitter aufgetaucht. Es sollte damals Übergriffe der venezolanischen Nationalgarde bei friedlichen Protesten belegen. Tatsächlich wurde es aber in Ägypten aufgenommen und bereits 2011 veröffentlicht. Das System hätte diese Manipulation erkannt. Als praktische Anwendung plant das DFKI eine Browser-Erweiterung. Mit ihr soll es möglich sein, jedes Bild im Netz anzuklicken und zu überprüfen. Auch diese Idee würde also einen menschlichen Prüfer unterstützen, jedoch Fake News nicht automatisch erkennen.

          Ist eine vollautomatische Erkennung überhaupt erstrebenswert?

          Die Frage ist, ob man eine vollautomatische Erkennung überhaupt anstreben soll. Schließlich lassen sich mit dem Etikett „Fake News“ öffentliche Diskussionen beeinflussen, und so viel Macht ist bei Algorithmen vielleicht falsch aufgehoben. Außerdem hat jeder Algorithmus, egal, wie gut er Texte versteht, und egal, wie sehr er auf Referenzen in Form von Bildern angewiesen ist, eine große Schwäche: „Wenn jemand mit einer großen Fake-News-Kampagne zum Beispiel eine Wahl beeinflussen will, dann wird er sich diese ganzen Algorithmen angucken und genau das tun, was die Algorithmen gerade nicht erkennen können“, sagt Norbert Pohlmann vom Institut für Internet-Sicherheit der Westfälischen Hochschule in Gelsenkirchen.

          Ein weiteres Problem ist, dass Algorithmen immer nur auf den aktuellen Stand der Dinge reagieren können. Wenn sie bereits verwendete Bilder erkennen, werden die Fake-News-Verbreiter sie eben geschickter manipulieren. Wenn sie sich die Verbreitungswege vornehmen, werden die Fake News neue finden. Wenn die Programme nach widerlegten Gerüchten suchen, dann werden deren Urheber das Netz mit vermeintlichen Bestätigungen fluten.

          Algorithmen gegen Fake News werden also nicht das Ende des Problems sein. Sondern lediglich der Anfang eines Rüstungswettlaufs.

          Weitere Themen

          Topmeldungen

          Im Juni 2018 trafen sich Russlands Präsident Putin und der amerikanische Sicherheitsberater John Bolton noch im Kreml, um das Verhältnis der beiden Ländern zu verbessern.

          F.A.S. exklusiv : Berlin warnt vor nuklearem Wettrüsten

          Die amerikanische Regierung will einen wichtigen Abrüstungsvertrag kündigen. Außenpolitiker aus Union und SPD schlagen Alarm. Das Auswärtige Amt fordert: Der INF-Vertrag muss bleiben.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.