https://www.faz.net/-gqz-8upsm

Fake-News-Forschung : Wie sich Lüge vor die Wahrheit legt

Das Pro-Sieben-Magazin „Galileo“ machte kürzlich ein Experiment: Mit einer speziellen Bildbearbeitungstechnik und einer Stimmenimitatorin ließ man es so aussehen, als träte Bundeskanzlerin Angela Merkel vor die Presse und gäbe ihren Rücktritt bekannt. Die Fälschung war täuschend echt und zeigte, wie Fake News aussehen können. Bild: Foto Pro Sieben

Selbst Facebook setzt im Kampf gegen Fake News vorerst auf das menschliche Urteil. Anders das von der EU geförderte Projekt „Pheme“. Dort wird an maschineller Auslese gearbeitet.

          4 Min.

          Es sind Automatismen, die das Problem mit Fake News groß gemacht haben, sollten es nicht auch Automatismen sein, mit denen die Großmächte der digitalen Nachrichtenverbreitung – Facebook, Google oder Twitter – sie in den Griff bekommen? Im Umfeld der amerikanischen Präsidentenwahl und vor den Wahlen in Europa ist die politische Aufmerksamkeit für das Thema der gezielten Irreführung so stark gewachsen, dass IT-Konzerne ihre Verantwortung anerkennen und an Lösungen arbeiten wollen.

          Dabei hatte Facebook selbst im vergangenen Sommer dafür gesorgt, das sonst gern gewählte Allheilmittel für Missstände jeder Art in diesem Fall unpassend erscheinen zu lassen: einen Algorithmus. Damals musste Facebook auf den Vorwurf reagieren, im amerikanischen Angebot in den handverlesenen „Trending Topics“, also angesagten Themen, systematisch konservative Standpunkte zu unterdrücken. Schnell entschied man sich für die Automatisierung der Auswahl, allerdings ohne verhindern zu können, dass sich Fehlinformationen unter den angepriesenen Beiträgen fanden.

          Auf der einen Seite wird den Betreibern des größten sozialen Netzwerks der Welt Gleichgültigkeit im Umgang mit ehrenrührigen, anstößigen oder irreführenden Inhalten vorgeworfen, auf der anderen Seite Zensur. Klar, dass Facebook beteuert, sich keinesfalls als Richter über „wahr“ und „falsch“ aufspielen zu wollen, und schleunigst einrichtet, dass Nutzer ihren Falschinformationsverdacht äußern können und dass unabhängige Dritte im Zweifelsfall entscheiden, was an einer Nachricht dran ist.

          Vorerst machen das besser Menschen

          Dabei vermitteln Mitarbeiter von Facebook zwischen den Nutzern und den Prüfern. Ohne sich mit dem beanstandeten Inhalt selbst zu befassen, gilt ihr Blick nur dessen Quelle. Bestehen Zweifel an ihrer Glaubwürdigkeit, wird der Eintrag an Faktenchecker weitergeleitet und von ihnen bewertet. Bestätigen Institutionen wie „Factcheck.org“, „Politifact“ oder die Nachrichtenagentur AP den Fake-News-Verdacht, werden die Facebook-Nutzer in der Timeline und beim Versuch, den Beitrag zu teilen, darauf hingewiesen, dass er angezweifelt wird, und er kann nicht mehr - als Werbung oder „vorgeschlagener“ Beitrag - gegen Bezahlung verbreitet werden. Facebook flankiert dieses Verfahren mit Werbeeinschränkungen für die Distributoren von Fake News, ähnlich wie es Google vorgemacht hat: Der Suchmaschinenbetreiber gab Ende Januar bekannt, im vierten Quartal zweihundert Kunden aus dem Ad-Sense-Werbeprogramm ausgeschlossen zu haben, die meisten von ihnen als Verbreiter zweifelhafter Nachrichten.

          Im Umgang mit dubiosen Inhalten entscheiden bei Facebook Menschen – vorerst. Bei der Vorstellung der Quartalsergebnisse Anfang des Monats sagte der Unternehmensgründer Mark Zuckerberg, wie wichtig es sei, „schlechtes Zeug“ so schnell es geht „herunternehmen“ zu können und dass Menschen dazu derzeit am besten in der Lage seien. Er legte aber nahe, dass er das gegenwärtige Verfahren für eine Zwischenlösung hält: „Letztendlich“, sagte er mit Blick vor allem auf die maschinelle Einordnung von Videos, „ist das Beste, was wir tun können, die Entwicklung eines Systems künstlicher Intelligenz.“ Über den Zeithorizont hat sich Zuckerberg bereits ausgelassen. Im April des vergangenen Jahres sagte er Investoren auf die Frage nach den jüngsten Entwicklungen, er glaube, dass innerhalb der nächsten fünf bis zehn Jahre Computer dem Menschen in Bereichen wie dem Sehen und Hören oder der Sprache überlegen wären.

          Topmeldungen

          Demo am 1. August in Berlin

          „Querdenken 711“ : Und wieder die Politiker!

          Eine Initiative peitscht Bürger in der Corona-Pandemie auf, um sie zu ihren Demos zu locken. Doch angebliche Belege sind gefälscht, Fotos aus dem Zusammenhang gerissen.
          Mitarbeiter vom Bayerischen Roten Kreuz nehmen an einem Corona-Testzentrum an der Autobahn 8 (A8) einen Abstrich

          In Bayern : Corona-Tests für Reiserückkehrer in vielen Fällen nutzlos

          Mehr als 40.000 Reiserückkehrer haben sich an Teststationen an Autobahnen und Bahnhöfen in Bayern freiwillig auf Corona testen lassen – viele haben ihr Testergebnis aber nie erhalten. Beim zuständigen Landesamt gibt man sich zerknirscht.
          Während der Corona-Pandemie arbeitslos gewordene Amerikaner warten in der Nähe der Grenze zu Mexiko in Kalifornien darauf, einen Antrag auf staatliche Hilfe ausfüllen zu können.

          Konjunktur in Corona-Zeiten : Amerika steckt tief in der Krise

          Die Arbeitslosenquote in den Vereinigten Staaten sinkt zwar, bleibt aber auf einem hohen Niveau. Die Hilfen für die Betroffenen laufen in Kürze aus. Was kommt dann?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.