https://www.faz.net/-gqz-8vdp0

Gespräch mit dem Informatiker Daniel Cremers : Facebook sollte nicht den Ahnungslosen spielen

Daumen hoch: Facebook kann beleidigende Inhalte erkennen und dauerhaft abblocken. Der Konzern muss es nur wollen. Bild: AFP

Vor Gericht sagt der Konzern, dauerhaft könne er beleidigende Inhalte nicht blockieren, doch technisch ist es möglich. Der Informatiker Daniel Cremers sagt, wie es geht.

          3 Min.

          Anfang Februar gab es in Würzburg eine Gerichtsverhandlung, in der es um die Frage ging, ob Facebook dafür sorgen muss, dass gemeldetes verleumderisches Bildmaterial, das entfernt oder geblockt wurde, auch künftig erkannt und sein Hochladen verhindert wird. Der Facebook-Anwalt sagte, eine „Wundermaschine“, die dies könne, gebe es noch nicht. Die Klärung der Frage wurde aufgeschoben. Sie sind Experte für Bildverarbeitung, ist die Technik tatsächlich noch nicht so weit?

          Uwe Ebbinghaus

          Redakteur im Feuilleton.

          Was Sie beschreiben, ist auf jeden Fall technisch möglich und keine große Herausforderung. Entsprechende Verfahren gibt es schon seit mindestens zehn Jahren.

          Wie funktionieren diese Verfahren?

          Für ungewünschte Bilder, die sich in einer Liste befinden, wird eine Art Index generiert – ebenso wie für jedes neu einlaufende Bild auf einer Plattform. Man vergleicht dann im Grunde nur noch die Indices miteinander. Ginge man diese Suche naiv an, müsste man sämtliche Bilder auf Facebook durchforsten. Inzwischen gibt es aber Algorithmen, die effizienter arbeiten.

          Worin besteht der Kniff?

          Es gibt verschiedene Konzepte. Eines ist das Hashing, ein anderes das Erstellen von Suchbäumen. Die gesamte Datenbank wird hierbei in einer Baumstruktur geordnet. Dabei wird systematisch gefragt: Ist ein bestimmtes Merkmal im Bild vorhanden – ja oder nein? Wenn ja, rücke ich in den linken Teil des Baums, wenn nein, in den rechten. Ich kann dann nach immer weiteren Merkmalen fragen – und sie können sich vorstellen, dass sich nach jeder Ja/Nein-Frage die Menge der zu durchforstenden Bilder halbiert. Dadurch entsteht eine sogenannte logarithmische Laufzeit, bei der ich effektiv Zeit spare. Hashing-Verfahren haben sogar eine konstante Laufzeit, die unabhängig von der Größe der Datenbank ist.

          Wie schnell kann beim derzeitigen Stand der Technik ein Bild unter Millionen identifiziert werden?

          Die genaue Laufzeit kann ich Ihnen nicht sagen, ich schätze aber, dass es sich um wenige Sekunden handelt.

          Das klingt, als könne man dieses Verfahren Facebook zutrauen.

          Auf jeden Fall. Wie viele große Firmen expandiert Facebook dieser Tage sehr im Bereich Bildverarbeitung und Mustererkennung. Facebook hat über die letzten Jahre hinweg eine Reihe kompetenter Wissenschaftler eingestellt, die derartige Technologien umsetzen können und dies sicherlich auch schon getan haben.

          Welche Schwierigkeiten könnten bei der skizzierten Anforderung auftreten?

          Selbst, wenn ich über einen Algorithmus verfüge, der in der beschriebenen Weise arbeitet, habe ich nie die hundertprozentige Sicherheit, dass das Suchergebnis richtig ist. Und wenn ein böswilliger Nutzer ein strafbares Bild wieder veröffentlichen möchte, muss er es nur hinreichend verändern oder verzerren, damit es durch das Sieb des Suchalgorithmus rutscht. Algorithmen, die sehr gut funktionieren, sind die, die das identische Bild in einer Datenbank finden sollen. Sobald die Bilder aber nicht mehr identisch sind, wenn zum Beispiel die Farben verändert oder Verzerrungen vorgenommen wurden, wird es schwieriger. Insofern kann man auch bei dem Zitat von der Wunder-Suchmaschine, die es nicht gebe, nicht grundsätzlich sagen, dass es falsch ist. Es kommt darauf an, was diese Maschine alles können soll. Bei Veränderungen am Bild wird es ab einem bestimmten Punkt schwierig.

          Technisch machbar, dem Konzern zuzumuten: Daniel Cremers weiß, was Facebook tun kann.

          Facebook wird vorgehalten, dass es Nacktheit schnell und effektiv herausfiltert, Gewaltdarstellungen und strafbare Hetze aber nicht. Könnte es daran liegen, dass Nacktheit leichter zu erkennen ist als Gewalt?

          Die automatische Erkennung von Pornographie funktioniert meines Wissens relativ gut, weil es Farbmerkmale gibt, die recht eindeutig sind. Gewalt ist hingegen ein komplexes Phänomen. Ich kann dem Verfahren nicht alles beibringen, was zur Gewalt dazugehört. Ich bin mir aber sicher, dass Facebook auch hier technische Hilfen und eine Art von Vorverarbeitung einsetzt.

          Auch Ihre eigene Forschung trägt, wenn sie in die falschen Hände gelangt, die Gefahr in sich, Persönlichkeitsrechte zu schwächen. Haben Sie den Eindruck, dass unsere Gesetzgebung dieser Gefahr noch Herr wird?

          Ich denke schon. Es gibt einen öffentlichen Diskurs über diese Problematik, und das ist gut so. Bedenklich finde ich gelegentlich, dass behauptet wird, man solle zum Schutz der Privatsphäre grundsätzlich keine Daten preisgeben, gleichzeitig unterschlägt man, dass diese Daten auch für Dienste und Services genutzt werden, auf die wir alle gerne zurückgreifen, wie zum Beispiel die Navigationshilfe im Auto oder im Handy. Ich finde, es müssten stärker potentielle Gefahren gegen potentielle Möglichkeiten abgewogen werden.

          Muss man nicht aber auch ein Auge darauf haben, welche neuen Möglichkeiten durch die Freigabe von Daten in der Zukunft möglich sein werden, auch durch eine zweckentfremdete Verwendung.

          Da haben Sie recht, man muss auch abwägen, welches der maximale Schaden ist, der entstehen kann.

          Um auf die Verleumdung in sozialen Netzwerken zurückzukommen: Muss man Facebook nicht zumuten, das Wiederhochladen beleidigender Bilder zu unterbinden, zumal das aus technischer Sicht, bis zu einem gewissen Punkt, kein Problem wäre? Es ist einer einmal verleumdeten Person ja heute kaum noch zuzumuten, soziale Medien auf Wiederholungstaten hin zu durchkämmen.

          Ich finde, das man das zumuten kann. Ich bin aber kein Jurist. Hierzu müssten wahrscheinlich die rechtlichen Rahmenbedingungen erst noch geschaffen werden. Da wäre der Gesetzgeber gefragt.

          Das Gespräch führte Uwe Ebbinghaus.

          Weitere Themen

          Topmeldungen

          Stefan Ilsanker beim Jubel über sein zweites Tor

          3:0 gegen Bremen : Eiskalte Frankfurter

          Die Frankfurter bestehen den Stresstest in Bremen und sind mit dem 3:0-Sieg praktisch aller Sorgen ledig. Ilsanker trifft mit dem ersten Ballkontakt – und dann noch einmal.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.