https://www.faz.net/aktuell/feuilleton/debatten/projekt-pheme-geht-kampf-gegen-fake-news-maschinell-an-14870038.html

Fake-News-Forschung : Wie sich Lüge vor die Wahrheit legt

Das Pro-Sieben-Magazin „Galileo“ machte kürzlich ein Experiment: Mit einer speziellen Bildbearbeitungstechnik und einer Stimmenimitatorin ließ man es so aussehen, als träte Bundeskanzlerin Angela Merkel vor die Presse und gäbe ihren Rücktritt bekannt. Die Fälschung war täuschend echt und zeigte, wie Fake News aussehen können. Bild: Foto Pro Sieben

Selbst Facebook setzt im Kampf gegen Fake News vorerst auf das menschliche Urteil. Anders das von der EU geförderte Projekt „Pheme“. Dort wird an maschineller Auslese gearbeitet.

          4 Min.

          Es sind Automatismen, die das Problem mit Fake News groß gemacht haben, sollten es nicht auch Automatismen sein, mit denen die Großmächte der digitalen Nachrichtenverbreitung – Facebook, Google oder Twitter – sie in den Griff bekommen? Im Umfeld der amerikanischen Präsidentenwahl und vor den Wahlen in Europa ist die politische Aufmerksamkeit für das Thema der gezielten Irreführung so stark gewachsen, dass IT-Konzerne ihre Verantwortung anerkennen und an Lösungen arbeiten wollen.

          Fridtjof Küchemann
          Redakteur im Feuilleton.

          Dabei hatte Facebook selbst im vergangenen Sommer dafür gesorgt, das sonst gern gewählte Allheilmittel für Missstände jeder Art in diesem Fall unpassend erscheinen zu lassen: einen Algorithmus. Damals musste Facebook auf den Vorwurf reagieren, im amerikanischen Angebot in den handverlesenen „Trending Topics“, also angesagten Themen, systematisch konservative Standpunkte zu unterdrücken. Schnell entschied man sich für die Automatisierung der Auswahl, allerdings ohne verhindern zu können, dass sich Fehlinformationen unter den angepriesenen Beiträgen fanden.

          Auf der einen Seite wird den Betreibern des größten sozialen Netzwerks der Welt Gleichgültigkeit im Umgang mit ehrenrührigen, anstößigen oder irreführenden Inhalten vorgeworfen, auf der anderen Seite Zensur. Klar, dass Facebook beteuert, sich keinesfalls als Richter über „wahr“ und „falsch“ aufspielen zu wollen, und schleunigst einrichtet, dass Nutzer ihren Falschinformationsverdacht äußern können und dass unabhängige Dritte im Zweifelsfall entscheiden, was an einer Nachricht dran ist.

          Vorerst machen das besser Menschen

          Dabei vermitteln Mitarbeiter von Facebook zwischen den Nutzern und den Prüfern. Ohne sich mit dem beanstandeten Inhalt selbst zu befassen, gilt ihr Blick nur dessen Quelle. Bestehen Zweifel an ihrer Glaubwürdigkeit, wird der Eintrag an Faktenchecker weitergeleitet und von ihnen bewertet. Bestätigen Institutionen wie „Factcheck.org“, „Politifact“ oder die Nachrichtenagentur AP den Fake-News-Verdacht, werden die Facebook-Nutzer in der Timeline und beim Versuch, den Beitrag zu teilen, darauf hingewiesen, dass er angezweifelt wird, und er kann nicht mehr - als Werbung oder „vorgeschlagener“ Beitrag - gegen Bezahlung verbreitet werden. Facebook flankiert dieses Verfahren mit Werbeeinschränkungen für die Distributoren von Fake News, ähnlich wie es Google vorgemacht hat: Der Suchmaschinenbetreiber gab Ende Januar bekannt, im vierten Quartal zweihundert Kunden aus dem Ad-Sense-Werbeprogramm ausgeschlossen zu haben, die meisten von ihnen als Verbreiter zweifelhafter Nachrichten.

          Im Umgang mit dubiosen Inhalten entscheiden bei Facebook Menschen – vorerst. Bei der Vorstellung der Quartalsergebnisse Anfang des Monats sagte der Unternehmensgründer Mark Zuckerberg, wie wichtig es sei, „schlechtes Zeug“ so schnell es geht „herunternehmen“ zu können und dass Menschen dazu derzeit am besten in der Lage seien. Er legte aber nahe, dass er das gegenwärtige Verfahren für eine Zwischenlösung hält: „Letztendlich“, sagte er mit Blick vor allem auf die maschinelle Einordnung von Videos, „ist das Beste, was wir tun können, die Entwicklung eines Systems künstlicher Intelligenz.“ Über den Zeithorizont hat sich Zuckerberg bereits ausgelassen. Im April des vergangenen Jahres sagte er Investoren auf die Frage nach den jüngsten Entwicklungen, er glaube, dass innerhalb der nächsten fünf bis zehn Jahre Computer dem Menschen in Bereichen wie dem Sehen und Hören oder der Sprache überlegen wären.

          Weitere Themen

          Topmeldungen

          Die Zeiten haben sich geändert: Anti-Atom-Dorf im Jahr 1980 in der Nähe von Gorleben im Wendland

          Fracking und Atomkraft : Das Gorlebener Lagerfeuer wärmt nicht mehr

          Ideologie kann keine Energiepolitik ersetzen. Die Regierung muss konsequenter handeln – und sich Optionen offen halten. Das gilt auch für Atomkraft und eine heimische Gasförderung.
          Tote Fische, Muscheln und Schnecken haben sich an einer von der Feuerwehr verlegter Sperre in der Westoder, auf der Wasseroberfläche gesammelt.

          Fischsterben an der Oder : Algenblüte oder Zementverklappung?

          Noch immer ist nicht geklärt, wie es zu dem Fischsterben in der Oder kommen konnte. Es mehren sich aber die Hinweise, dass eine Alge die Ursache sein könnte – gepaart mit menschlichem Zutun.

          Wahlkampf in Brasilien : Bolsonaro zielt gegen das Establishment

          Während einer Veranstaltung am Obersten Wahlgericht kommen sich Jair Bolsonaro und sein Kontrahent Lula da Silva so nah wie nie. Dabei entsteht ein Bild, das dem brasilianischen Präsidenten wohl nur recht ist.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.