https://www.faz.net/aktuell/wissen/geist-soziales/kuenstliche-intelligenz-warum-algorithmen-gegen-fake-news-scheitern-15035496.html

Algorithmen gegen Fake News : Die Wahrheitsmaschinen

  • -Aktualisiert am

Um Falschmeldungen aus seinen Suchergebnissen zu verbannen, setzt Google auf menschliche Hilfe. Der Algorithmus lernt dazu. Bild: dpa

Künstliche Intelligenz soll gefälschte Nachrichten identifizieren. Doch den kritischen Umgang mit Neuigkeiten kann dem Menschen am Ende keine Software abnehmen.

          6 Min.

          Nach dem Anschlag von Manchester zeigte sich mal wieder, dass soziale Medien im Internet nichts anders als Werkzeuge sind. Und zwar solche, mit denen man durchaus Gutes tun kann. So machte über den Kurznachrichtendienst Twitter das Schlagwort #RoomForManchester die Runde. Gerichtet war es an Menschen, die an diesem Montagabend in der Stadt gestrandet waren. Anwohner und Hotels boten ihnen Obdach. Unter #MissingInManchester suchten gleichzeitig Angehörige und Freunde nach Hinweisen zu Vermissten.

          Aber es zeigte sich an diesem Beispiel eben auch, dass Twitter und Facebook Werkzeuge sind, mit denen man Schlechtes tun kann. Denn unter den vermeintlich Vermissten tauchten Fotos von Menschen auf, die mit dem Anschlag gar nichts zu tun hatten. Es kursierte etwa das Bild eines Teenagers, versehen mit dem Kommentar: „Mein Sohn war heute in der Manchester Arena. Er geht nicht ans Telefon, bitte helft mit!“ Zigtausende Profile auf Twitter leiteten das Foto weiter. Bis sich der junge Mann selbst in einer Videonachricht zu Wort meldete. Er sei wohlauf und lebe in den Vereinigten Staaten. Irgendwer hatte sich mit seinem Foto einen bösen Scherz erlaubt. Es war nur eine von vielen Geschmacklosigkeiten dieser Art. Schnell war von „Fake News“ die Rede.

          Wer im Internet Lügen verbreitet, findet ein globales Publikum

          Man findet derzeit unzählige Beispiele für diese Art von Irreführung. Während die Motive hinter den gefälschten Vermisstenmeldungen wohl Gehässigkeit und Geltungsdrang waren, spielen in anderen Fällen politische Absichten eine Rolle. So wurde der Grünen-Politikerin Renate Künast im Zusammenhang mit dem Mord an der Studentin Maria folgendes Zitat in den Mund gelegt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Auf Facebook wurde ein Flüchtling, der ein Selfie mit Kanzlerin Merkel geschossen hatte, mit Gewalttaten in Verbindung gebracht. Und nach der Schlacht um Aleppo kursierte auf Twitter das Bild eines Mädchens, das zwischen Leichen umherirrte. Es sollte die Brutalität des syrischen Militärs verdeutlichen, war aber eine Fotomontage aus alten Aufnahmen.

          Obwohl es sich bei derartiger Propaganda um kein neues Phänomen handelt, ist der Begriff Fake News derzeit allgegenwärtig. Denn Lügen, Gerüchte und Falschmeldungen haben mit den sozialen Medien eine neue Dimension erreicht. Jeder, der sich daran beteiligt, findet ein globales Publikum. Wer nicht selbst Fake News in Umlauf bringt, kann deren Botschaften zumindest verstärken, indem er sie weiterleitet oder mit „Gefällt mir“ markiert. Oder es übernehmen gleich Programme, die sich als Menschen ausgeben, diese Aufgabe. Schließlich sind die Algorithmen der sozialen Medien darauf programmiert, dem Nutzer ständig neue Inhalte zu präsentieren, die ihm gefallen könnten. Wer gerne Fake News einer bestimmten politischen Richtung liest, bekommt immer mehr davon. Weil soziale Medien und Algorithmen die entscheidende Rolle beim Aufkommen von Fake News spielen, liegt der Gedanke nahe, dass Algorithmen dieses Problem auch lösen könnten.

          Nicht immer gibt es Fakten, auf die sich alle einigen können

          Das mag sich auch Dean Pomerleau gedacht haben. Der Experte für maschinelles Lernen von der Carnegie Mellon University im amerikanischen Pittsburgh versprach auf Twitter jedem Programmierer tausend Dollar Belohnung, der imstande sei, einen Algorithmus zur Erkennung von Fake News zu entwickeln. Mittlerweile ist daraus der „Fake News Challenge“ geworden, ein Wettbewerb, an dem gut vierzig Forschergruppen teilnehmen. Die Ergebnisse sollen Mitte Juni veröffentlicht werden. Doch ausgerechnet Pomerleau macht sich wenig Hoffnungen, dass dabei ein automatisches System zur Entlarvung von Lügen entstehen wird. „Das würde bedeuten, dass künstliche Intelligenz das Niveau von menschlicher Intelligenz erreicht hat“, sagte er dem Magazin „Wired“. Er hält das für äußerst unwahrscheinlich.

          Weitere Themen

          Topmeldungen

          Wer darf alles rein? Die Ampel sagt: Der Sieg im Wahlkreis reicht nicht immer für den Einzug in den Bundestag.

          Staatsrechtler über Wahlrecht : „Wir müssen experimentieren“

          Der Staatsrechtler Christoph Möllers hat die Ampelfraktionen beim Vorschlag für ein neues Wahlrecht beraten. Im Gespräch mit der F.A.Z. ermuntert er zu weniger verfassungsrechtlichem Perfektionismus.
          Kampfpanzer Leopard 2

          Ukraine-Liveblog : Tschechische Republik erhält deutsche Leopard-Panzer als Ersatz

          Russischer Soldat bekennt sich des Mordes schuldig +++ Österreich will NATO weiterhin nicht beitreten +++ 959 ukrainische Soldaten haben sich laut Russland in Asow-Stahlwerk ergeben +++ Großbritannien: Russland mit erheblichen Ressourcenproblemen in der Ukraine +++ alle Entwicklungen im Liveblog.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.
          Zertifikate
          Ihre Weiterbildung in der Organisations- psychologie
          Sprachkurse
          Lernen Sie Italienisch
          Stellenmarkt
          Jobs für Fach- und Führungskräfte finden