https://www.faz.net/-gqz-8upsm

Fake-News-Forschung : Wie sich Lüge vor die Wahrheit legt

Das Pro-Sieben-Magazin „Galileo“ machte kürzlich ein Experiment: Mit einer speziellen Bildbearbeitungstechnik und einer Stimmenimitatorin ließ man es so aussehen, als träte Bundeskanzlerin Angela Merkel vor die Presse und gäbe ihren Rücktritt bekannt. Die Fälschung war täuschend echt und zeigte, wie Fake News aussehen können. Bild: Foto Pro Sieben

Selbst Facebook setzt im Kampf gegen Fake News vorerst auf das menschliche Urteil. Anders das von der EU geförderte Projekt „Pheme“. Dort wird an maschineller Auslese gearbeitet.

          4 Min.

          Es sind Automatismen, die das Problem mit Fake News groß gemacht haben, sollten es nicht auch Automatismen sein, mit denen die Großmächte der digitalen Nachrichtenverbreitung – Facebook, Google oder Twitter – sie in den Griff bekommen? Im Umfeld der amerikanischen Präsidentenwahl und vor den Wahlen in Europa ist die politische Aufmerksamkeit für das Thema der gezielten Irreführung so stark gewachsen, dass IT-Konzerne ihre Verantwortung anerkennen und an Lösungen arbeiten wollen.

          Dabei hatte Facebook selbst im vergangenen Sommer dafür gesorgt, das sonst gern gewählte Allheilmittel für Missstände jeder Art in diesem Fall unpassend erscheinen zu lassen: einen Algorithmus. Damals musste Facebook auf den Vorwurf reagieren, im amerikanischen Angebot in den handverlesenen „Trending Topics“, also angesagten Themen, systematisch konservative Standpunkte zu unterdrücken. Schnell entschied man sich für die Automatisierung der Auswahl, allerdings ohne verhindern zu können, dass sich Fehlinformationen unter den angepriesenen Beiträgen fanden.

          Auf der einen Seite wird den Betreibern des größten sozialen Netzwerks der Welt Gleichgültigkeit im Umgang mit ehrenrührigen, anstößigen oder irreführenden Inhalten vorgeworfen, auf der anderen Seite Zensur. Klar, dass Facebook beteuert, sich keinesfalls als Richter über „wahr“ und „falsch“ aufspielen zu wollen, und schleunigst einrichtet, dass Nutzer ihren Falschinformationsverdacht äußern können und dass unabhängige Dritte im Zweifelsfall entscheiden, was an einer Nachricht dran ist.

          Vorerst machen das besser Menschen

          Dabei vermitteln Mitarbeiter von Facebook zwischen den Nutzern und den Prüfern. Ohne sich mit dem beanstandeten Inhalt selbst zu befassen, gilt ihr Blick nur dessen Quelle. Bestehen Zweifel an ihrer Glaubwürdigkeit, wird der Eintrag an Faktenchecker weitergeleitet und von ihnen bewertet. Bestätigen Institutionen wie „Factcheck.org“, „Politifact“ oder die Nachrichtenagentur AP den Fake-News-Verdacht, werden die Facebook-Nutzer in der Timeline und beim Versuch, den Beitrag zu teilen, darauf hingewiesen, dass er angezweifelt wird, und er kann nicht mehr - als Werbung oder „vorgeschlagener“ Beitrag - gegen Bezahlung verbreitet werden. Facebook flankiert dieses Verfahren mit Werbeeinschränkungen für die Distributoren von Fake News, ähnlich wie es Google vorgemacht hat: Der Suchmaschinenbetreiber gab Ende Januar bekannt, im vierten Quartal zweihundert Kunden aus dem Ad-Sense-Werbeprogramm ausgeschlossen zu haben, die meisten von ihnen als Verbreiter zweifelhafter Nachrichten.

          Im Umgang mit dubiosen Inhalten entscheiden bei Facebook Menschen – vorerst. Bei der Vorstellung der Quartalsergebnisse Anfang des Monats sagte der Unternehmensgründer Mark Zuckerberg, wie wichtig es sei, „schlechtes Zeug“ so schnell es geht „herunternehmen“ zu können und dass Menschen dazu derzeit am besten in der Lage seien. Er legte aber nahe, dass er das gegenwärtige Verfahren für eine Zwischenlösung hält: „Letztendlich“, sagte er mit Blick vor allem auf die maschinelle Einordnung von Videos, „ist das Beste, was wir tun können, die Entwicklung eines Systems künstlicher Intelligenz.“ Über den Zeithorizont hat sich Zuckerberg bereits ausgelassen. Im April des vergangenen Jahres sagte er Investoren auf die Frage nach den jüngsten Entwicklungen, er glaube, dass innerhalb der nächsten fünf bis zehn Jahre Computer dem Menschen in Bereichen wie dem Sehen und Hören oder der Sprache überlegen wären.

          Im Fokus nach drei Jahren Forschung

          Die Frage nach ihrer Verantwortung bei der Veröffentlichung von „Hate Speech“ oder Fake News führt die IT-Konzerne auf ein komplexes Terrain. Die Lösungen, denen sie zuneigen, bleiben fehleranfällig, und diese Fehler werden breit diskutiert. Einem von der EU geförderten, auf drei Jahre angelegten Forschungsprojekt, an dem Institutionen aus sieben Ländern beteiligt sind, kommt die internationale Aufmerksamkeit für das Thema indes gerade recht.

          Als das nach der altgriechischen Göttin des Ruhms und des Gerüchts benannte Projekt „Pheme“ im Januar 2014 seine Arbeit aufnahm, war die Aufregung um mögliche Wahlbeeinflussungen durch Falschmeldungen noch nicht absehbar. Jetzt betont die Projektkoordinatorin Kalina Bontcheva, Informatikerin an der Universität von Sheffield, wie wichtig unabhängige Forschung auf diesem Gebiet sei: Bei der automatischen Erkennung von Falschinformationen dürfe man sich nicht auf kommerzielle Lösungen verlassen, sondern müsse an offenen und nachvollziehbaren Systemen arbeiten, auch um dem Vorwurf automatisierter Zensur entgegenzutreten.

          Facebooks Vorteil

          Ähnlich wie beim Kampf gegen die Verbreitung von Spam spricht Bontcheva von einem Wettrennen des Menschen gegen die Maschine. Es sei nicht möglich, das Problem vollständig zu lösen, eine zuverlässige Kennzeichnung wäre schon ein Erfolg - den die Wissenschaftlerin indes für die nächste Zeit nicht in Aussicht stellen kann. Spekulationen, Kontroversen, Missinformation und Desinformation sollen die von der „Pheme“-Forschung vorbereiteten Instrumente einmal erkennen und kennzeichnen können und dabei Verfahren der Analyse natürlicher Sprachen und sozialer Netzwerke miteinander kombinieren.

          Doch nicht nur der Anspruch, transparent und nachvollziehbar zu arbeiten, unterscheidet „Pheme“ von den Ansätzen bei Facebook, Google und Twitter. Auch die Voraussetzungen sind andere. Die Daten, zu denen die Firmen selbstverständlich Zugang haben, sind für die Wissenschaftler schwer erreichbar. Kalina Bontcheva sieht ihr Projekt denn auch als Ergänzung zu Bemühungen, die Aufmerksamkeit der Nutzer für mögliche Fehlinformationen zu erhöhen. Die Werkzeuge, an denen „Pheme“ arbeitet, sollen einmal in der Lage sein, innerhalb kürzester Zeit mögliche Falschinformationen aus großen Datenmengen herauszufiltern - etwa in Momenten allgemeiner Desorientierung nach einem Unglück. In den kommenden Wochen soll ihr Entwicklungsstand vorgestellt werden.

          Facebook hat unterdessen seine Relevanzkriterien überarbeitet. Statt die „Trending Topics“ weiter auf die vermeintlichen Interessen eines jeden Nutzers abzustimmen, sollen künftig alle Nutzer aus derselben Gegend eine einheitliche Auswahl an Beiträgen angezeigt bekommen. Und statt - abgesehen von Werbung - nur von „Freunden“ Kommentiertes, Gemochtes oder Geteiltes in der Timeline zu finden, sollen Facebook-Nutzer, wie Mark Zuckerberg ankündigte, „passende“ Beiträge untergemischt bekommen, von denen die künstliche Intelligenz annimmt, dass sie den Nutzer interessieren. Das ist genau diese künstliche Intelligenz, die sich mit „wahr“ und „falsch“ verständlicherweise schwertut.

          Weitere Themen

          Facebook erforschen

          Studie empfiehlt Transparenz : Facebook erforschen

          Bei Druck, Hass und Desinformation endlich Einhalt zu gebieten, gibt sich Facebook immer einsichtig – und bleibt unbehelligt in seinen Verbesserungsversuchen. Eine neue Studie empfiehlt Transparenzpflichten für soziale Netzwerke.

          Topmeldungen

          Kulissen wie diese am Grundlsee ziehen Urlauber normalerweise in Scharen nach Österreich. 280.000 Menschen leben dort direkt vom Tourismus.

          Tourismus in Österreich : Urlaub nach der „Ischgl-Lektion“

          Ferien in Österreich: Das verspricht Erholung zwischen Bergen und Seen. Doch in der Corona-Krise zeigt das Geschäftsmodell seine Risiken. Warum das Land die Gäste aus Deutschland nun so dringend braucht.
          Wer will, wer hat noch nicht? Rekruten der Bundeswehr nehmen am 20. Juli 2009 vor dem Reichstagsgebäude in Berlin an einem öffentlichen Gelöbnis teil.

          Reaktionen auf Högl-Vorschlag : Wehrpflicht? Nein, danke!

          Die Wehrbeauftragte will eine Debatte über die Wiedereinsetzung. Dafür erntet sie heftige Kritik. Die Verteidigungsministerin schlägt einen Freiwilligendienst vor – ohne Högl zu erwähnen.
          Was vor 30.000 Jahren mit poliertem Gestein anfing, wurde im 19. Jahrhundert unter Strom gesetzt und erhält heute Design-Awards. Julia Ossko und Eugen Schulz setzten die Geschichte der Sexspielzeuge bildhaft in Szene.

          Die Geschichte der Sextoys : Komm, lass uns spielen

          Von Stein zu Silikon, vom Phallus zum Designobjekt – Sexspielzeuge sind (fast) so alt wie die Menschheit. Das Schmuddelimage war einmal, mittlerweile sind Dildos und andere Spielzeuge in der Mitte der Gesellschaft angekommen.

          Sommer-Transfermarkt : Eine ganz klare Ansage des FC Bayern

          Mit Leroy Sané gab es einen Millionen-Einkauf. Wie geht es nun weiter beim FC Bayern auf dem Transfermarkt? Karl-Heinz Rummenigge gibt Einblicke in die Münchner Planungen – vor allem mit Blick auf Kai Havertz.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.