https://www.faz.net/aktuell/feuilleton/debatten/projekt-pheme-geht-kampf-gegen-fake-news-maschinell-an-14870038.html

Fake-News-Forschung : Wie sich Lüge vor die Wahrheit legt

Das Pro-Sieben-Magazin „Galileo“ machte kürzlich ein Experiment: Mit einer speziellen Bildbearbeitungstechnik und einer Stimmenimitatorin ließ man es so aussehen, als träte Bundeskanzlerin Angela Merkel vor die Presse und gäbe ihren Rücktritt bekannt. Die Fälschung war täuschend echt und zeigte, wie Fake News aussehen können. Bild: Foto Pro Sieben

Selbst Facebook setzt im Kampf gegen Fake News vorerst auf das menschliche Urteil. Anders das von der EU geförderte Projekt „Pheme“. Dort wird an maschineller Auslese gearbeitet.

          4 Min.

          Es sind Automatismen, die das Problem mit Fake News groß gemacht haben, sollten es nicht auch Automatismen sein, mit denen die Großmächte der digitalen Nachrichtenverbreitung – Facebook, Google oder Twitter – sie in den Griff bekommen? Im Umfeld der amerikanischen Präsidentenwahl und vor den Wahlen in Europa ist die politische Aufmerksamkeit für das Thema der gezielten Irreführung so stark gewachsen, dass IT-Konzerne ihre Verantwortung anerkennen und an Lösungen arbeiten wollen.

          Fridtjof Küchemann
          Redakteur im Feuilleton.

          Dabei hatte Facebook selbst im vergangenen Sommer dafür gesorgt, das sonst gern gewählte Allheilmittel für Missstände jeder Art in diesem Fall unpassend erscheinen zu lassen: einen Algorithmus. Damals musste Facebook auf den Vorwurf reagieren, im amerikanischen Angebot in den handverlesenen „Trending Topics“, also angesagten Themen, systematisch konservative Standpunkte zu unterdrücken. Schnell entschied man sich für die Automatisierung der Auswahl, allerdings ohne verhindern zu können, dass sich Fehlinformationen unter den angepriesenen Beiträgen fanden.

          Auf der einen Seite wird den Betreibern des größten sozialen Netzwerks der Welt Gleichgültigkeit im Umgang mit ehrenrührigen, anstößigen oder irreführenden Inhalten vorgeworfen, auf der anderen Seite Zensur. Klar, dass Facebook beteuert, sich keinesfalls als Richter über „wahr“ und „falsch“ aufspielen zu wollen, und schleunigst einrichtet, dass Nutzer ihren Falschinformationsverdacht äußern können und dass unabhängige Dritte im Zweifelsfall entscheiden, was an einer Nachricht dran ist.

          Vorerst machen das besser Menschen

          Dabei vermitteln Mitarbeiter von Facebook zwischen den Nutzern und den Prüfern. Ohne sich mit dem beanstandeten Inhalt selbst zu befassen, gilt ihr Blick nur dessen Quelle. Bestehen Zweifel an ihrer Glaubwürdigkeit, wird der Eintrag an Faktenchecker weitergeleitet und von ihnen bewertet. Bestätigen Institutionen wie „Factcheck.org“, „Politifact“ oder die Nachrichtenagentur AP den Fake-News-Verdacht, werden die Facebook-Nutzer in der Timeline und beim Versuch, den Beitrag zu teilen, darauf hingewiesen, dass er angezweifelt wird, und er kann nicht mehr - als Werbung oder „vorgeschlagener“ Beitrag - gegen Bezahlung verbreitet werden. Facebook flankiert dieses Verfahren mit Werbeeinschränkungen für die Distributoren von Fake News, ähnlich wie es Google vorgemacht hat: Der Suchmaschinenbetreiber gab Ende Januar bekannt, im vierten Quartal zweihundert Kunden aus dem Ad-Sense-Werbeprogramm ausgeschlossen zu haben, die meisten von ihnen als Verbreiter zweifelhafter Nachrichten.

          Im Umgang mit dubiosen Inhalten entscheiden bei Facebook Menschen – vorerst. Bei der Vorstellung der Quartalsergebnisse Anfang des Monats sagte der Unternehmensgründer Mark Zuckerberg, wie wichtig es sei, „schlechtes Zeug“ so schnell es geht „herunternehmen“ zu können und dass Menschen dazu derzeit am besten in der Lage seien. Er legte aber nahe, dass er das gegenwärtige Verfahren für eine Zwischenlösung hält: „Letztendlich“, sagte er mit Blick vor allem auf die maschinelle Einordnung von Videos, „ist das Beste, was wir tun können, die Entwicklung eines Systems künstlicher Intelligenz.“ Über den Zeithorizont hat sich Zuckerberg bereits ausgelassen. Im April des vergangenen Jahres sagte er Investoren auf die Frage nach den jüngsten Entwicklungen, er glaube, dass innerhalb der nächsten fünf bis zehn Jahre Computer dem Menschen in Bereichen wie dem Sehen und Hören oder der Sprache überlegen wären.

          Weitere Themen

          Versteht mein Computer, was er tut?

          John Searle zum 90. : Versteht mein Computer, was er tut?

          Das menschliche Denken steckt voller Rätsel. Die Entwicklung von Computern, die unser Denken nachahmen sollen, lässt es nur noch mysteriöser erscheinen. Der Philosoph John Searle hat unermüdlich versucht, diese Rätsel zu lösen.

          Topmeldungen

          Neue Wege: Der Wasserstand des Rheins ist so niedrig, dass Touristen zum Bingener Mäuseturm laufen können.

          Trockenheit am Mittelrhein : Als hätte es Steine in den Fluss geregnet

          Aus dem Mittelrhein ragen fußballfeldgroße Inseln. Der Wasserstand ist teilweise so niedrig, dass man den Fluss durchwaten kann. Manche Fähren stellen den Betrieb ein – und Anwohner trauen ihren Augen kaum.
          Russische Touristen bei der Passkontrolle am Grenzübergang Nuijamaa in Lappeenranta

          Urlaub in Europa : Keine Visa mehr für russische Touristen?

          Nach dem russischen Überfall auf die Ukraine hat die EU in ihren Sanktionspaketen Oligarchen mit Reiseverboten belegt. Russische Touristen können aber weiter Visa beantragen. Das sorgt für Unmut.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.