http://www.faz.net/-gqz-9ez5e

Fake-News-Identifikation : Wahrheitsliebende Maschinen

  • -Aktualisiert am

Ein Unwort mit steiler Karriere: alternative Fakten Bild: Picture-Alliance

Darmstädter Wissenschaftler arbeiten an automatischer Fake-News-Identifikation. Die Wahrheitsprüfung ganz der Maschine überlassen wollen sie aber nicht.

          Im Kampf gegen Fake News widmen sich zahlreiche Initiativen der Faktenprüfung und Aufdeckung von Falschmeldungen. Erschwert wird ihre Arbeit allerdings durch die enorme Zahl überprüfungsbedürftiger Nachrichten und die Geschwindigkeit, mit der sie sich im Netz verbreiten. Ist ein Gerücht, eine Lüge, ein manipuliertes Bild erst einmal „viral“, erreicht die Richtigstellung viele Netzteilnehmer nicht mehr. Welch drastische Folgen das haben kann, zeigte sich, als ein bewaffneter Mann eine Pizzeria in Washington stürmte, weil angeblich von dort aus ein pädokrimineller Ring mit Beteiligung Hillary Clintons seine Geschäfte betrieb.

          Seit einiger Zeit schon arbeiten Computerwissenschaftler daran, Faktenchecks zu automatisieren und dadurch zu beschleunigen. Der Gedanke, Maschinen einzusetzen, liegt nahe: Schließlich können auch menschliche Wahrheitswächter die allermeisten Informationen, die durch die Medien und die sozialen Netzwerke zirkulieren, nicht durch Augenschein überprüfen, sondern nur durch den Abgleich mit anderen Quellen, die als seriös gelten. Das sollten Computer im Prinzip ebenso können, nur eben viel schneller.

          Zu den führenden Forschern im Bereich der computerisierten Fake-News-Erkennung gehört ein Team um die Computerlinguistin Iryna Gurevych an der Technischen Universität Darmstadt. Sie und ihre Kollegen setzen wie die meisten Forscher in diesem Bereich auf das Konzept des maschinellen Lernens mit neuronalen Netzen. Es beruht im Prinzip darauf, dass sich das Programm die Analyseprozeduren anhand von Beispielen selbst beibringt. Im Fall der Fake-News-Identifikation geht es darum, strittige Behauptungen auf Websites, Blogs oder in den sozialen Netzwerken aufzuspüren und auf ihren Wahrheitsgehalt zu überprüfen, indem sie mit Quellen aus dem Internet oder aus Datenbanken abgeglichen werden, die als zuverlässig gelten. Die Aufgabe ist anspruchsvoll, denn während es Teil der menschlichen Kommunikationsfähigkeit ist, Behauptungen und Argumente zu identifizieren und zu gewichten, muss die Maschine all das erst einmal lernen. Sie muss erkennen, welche Sätze in einem Text überhaupt Begründungen enthalten, die sich auf die strittige Aussage beziehen, ob sie pro oder contra ausgerichtet sind und was sie von bloßen Meinungsäußerungen ohne sachlichen Gehalt oder gänzlich irrelevanten Textteilen unterscheidet. Erst auf dieser Basis kann das Programm eine Bewertung des Wahrheitsgehalts liefern.

          Die Trefferquote liegt bei 65 Prozent

          Damit das System diese Fähigkeiten erlernen kann, braucht es zunächst einmal eine große Zahl von Trainingstexten. Die Darmstädter Forscher haben dafür mehrere tausend Nachrichten samt Prüfurteilen zusammengestellt, die von der Fact-Checking-Website snopes.com stammen. Ergänzt wird dieses Korpus durch Internet-Texte, in denen dieselben Themen behandelt und kommentiert werden, so dass hier Argumente für den Abgleich und die Beurteilung des Wahrheitswertes zu finden sind. Menschliche Klassifikatoren kennzeichnen diese Textabschnitte vorab, um den selbstlernenden Algorithmen Lernmuster und Zielvorgaben zu liefern, denen sich die Maschine dann in mehreren Übungsdurchläufen annähert.

          Die Texte sind zwar englisch, weil es in dieser Sprache die meisten digital verfügbaren Dokumente gibt, aber sie lassen sich maschinell samt den Kennzeichnungen ins Deutsche oder andere Sprachen übertragen und funktionieren dann laut Iryna Gurevych ebenso gut als Trainingsgrundlage. „Die Erfolgsrate, mit der unser Programm zurzeit erkennt, ob ein Satz ein Beleg für oder gegen eine strittige Behauptung oder ob er irrelevant ist, liegt bei 65 Prozent. Bei Menschen liegt sie bei 85 Prozent. In den kommenden Jahren dürfte sich die maschinelle Treffergenauigkeit aber bedeutend erhöhen“, sagt die Computerlinguistin, die zugleich darauf hinweist, dass es noch eine umfangreiche Agenda gibt: Verbesserungsbedürftig ist beispielsweise die Generalisierungsfähigkeit des Programms, und es mangelt ihm auch noch an Weltwissen – an jenen alltäglichen Grundkenntnissen, die jeder Mensch im Lauf seines Lebens von selbst erwirbt, die aber in keiner Datenbank gespeichert sind.

          Auch mit manchen sprachlichen Fähigkeiten hapert es noch. Verwickelt formulierte Negativurteile wie „Wenn diese Geschichte absurd klingt, dann, weil sie es ist“ erkennen die Algorithmen oft noch nicht, und auch mit semantischen Über- und Unterordnungen oder logischen Folgerungen haben sie zu kämpfen. Eine weitere Frage betrifft die Urteilsfindung: Es ist klar, dass eine bloße Auszählung von Pro- und Contra-Argumenten nicht reicht. Denkbar wäre, dass das Programm die Qualität der Quellen einbezieht.

          Auch wenn in Zukunft die maschinelle Analyseleistung noch steigen wird – den Ehrgeiz, die menschlichen Faktenprüfer durch Computer komplett zu ersetzen, haben die Darmstädter Forscher nicht. Sie wollen vielmehr einen digitalen Assistenten entwickeln, der menschlichen Fake-News-Kontrolleuren hilft, verdächtige Fälle aus der Nachrichtenflut herauszufiltern. Diese Beschränkung ist begrüßenswert.

          Man muss gar keine philosophischen Diskussionen über den Begriff der Wahrheit führen, um zu sehen, dass eine völlige Delegation der Fake-Prüfung an die Maschine fatale Konsequenzen hätte. Satire und Fiktion, so ist zu befürchten, würden sich in ihren Kontroll-Algorithmen hoffnungslos verfangen. George Orwells „Wahrheitsministerium“ auf dem Fake-News-Index: das wäre ein düsterer Witz.

          Weitere Themen

          Wie nerdy sind Sie?

          EU-Kampagne mit Spiel : Wie nerdy sind Sie?

          Der digitale Umbau kommt mit Macht und Brüssel und will herausfinden, wie viele Europäer noch mithalten. Das multimediale Umfragespiel „iNerd“ soll zeigen, wie gut Sie vier Hauptthemen beherrschen. Probieren Sie es aus.

          Maria hat geholfen

          Der „Tatort“ aus München : Maria hat geholfen

          Nicht viel Logik, aber ein kleines Kunststück: Im Münchner „Tatort – KI“ diskutieren die Kommissare Leitmayr und Batic mit einem Computerprogramm – im Raum steht die Frage nach der Macht der Maschinen

          Topmeldungen

          F.A.Z.-Recherchen : Diesel-Konzept der Regierung basiert auf veralteten Daten

          In 14 besonders mit Stickstoffdioxid belasteten Städten sollen Maßnahmen ergriffen werden, um Fahrverbote für ältere Diesel zu vermeiden. Doch wie F.A.Z.-Recherchen nun zeigen, waren die Daten der Regierung nicht aktuell. Damit ändert sich die Liste der Städte.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.