http://www.faz.net/-gum-8w10a
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren
Best Ager - Für Senioren und Angehörige

Aktualisiert: 20.03.2017, 11:22 Uhr

Erkennen von Suizidgefährdeten Facebook und sein trojanisches Pferd

Regelmäßig kursieren auf Facebook Videos von Suiziden. Nun will das Unternehmen gefährdete Nutzer automatisch identifizieren. Kritiker fürchten, der ernste Anlass könne genutzt werden, um noch mehr Überwachung durchzusetzen.

von
© AFP Facebook-Chef Mark Zuckerberg will schnell und genau verstehen, „was in unserer Gemeinschaft passiert“.

Es ist noch nicht lange her, dass Videos zweier dramatischer Ereignisse auf Facebook erschienen. Im Dezember filmte ein zwölf Jahre altes Mädchen aus dem amerikanischen Bundesstaat Georgia ihren Suizid. Das Video lief in Echtzeit auf Live.me, Mitschnitte wurden auf Facebook veröffentlicht. Im Januar folgte eine Vierzehnjährige aus Miami dem furchtbaren Vorbild. Auch sie konnte nicht gerettet werden, obwohl ihr Suizid live auf Facebook zu sehen gewesen sein soll und angeblich sogar die Mutter des Mädchens unter den Zuschauern war.

Sebastian Eder Folgen:

Facebook musste sich danach Fragen gefallen lassen: Warum war das Video so lange online, ohne dass Mitarbeiter der Plattform eingeschritten waren? Eine Sprecherin sagte: „Unsere Teams arbeiten rund um die Uhr, um Inhalte zu überprüfen, die von Benutzern gemeldet werden, und wir haben Systeme, um sicherzustellen, dass zeitkritische Inhalte schnell bearbeitet werden.“

Werden die Nutzer gläsern?

Schon vor diesen dramatischen Fällen suchte das Unternehmen nach neuen Wegen, um kritische Inhalte in Live-Videos schneller identifizieren zu können. Anfang März wurden die Pläne in einer Pressemitteilung vorgestellt. Erstens sollen suizidgefährdete Nutzer in Zukunft auf der ganzen Welt über Facebooks Livestreaming-Dienst gemeldet werden können. Kommen Facebook-Mitarbeiter dann zu dem Schluss, dass jemand wirklich gefährdet ist, erscheint auf dessen Bildschirm eine Nachricht: „Jemand denkt, du brauchst Hilfe.“

Aus diesem Fenster heraus kann der Nutzer sich direkt mit Helfern verbinden lassen, Tipps lesen oder einem Freund schreiben. Gleichzeitig bekommt derjenige, der das Video gemeldet hat, erklärt, wie er seinem Freund helfen kann. Fachleute hatten laut Facebook gesagt, dieses Vorgehen sei sinnvoller, als die Übertragung eines Videos zu stoppen.

Die Initiative wird allgemein begrüßt. Ein anderer Teil des Plans ruft allerdings Aufregung hervor. Facebook testet in den Vereinigten Staaten nämlich auch, ob suizidgefährdete Nutzer mit Hilfe künstlicher Intelligenz identifiziert werden können. Ein entsprechender Algorithmus orientiert sich an Beiträgen von Menschen mit Suizidabsichten, die in der Vergangenheit gemeldet wurden. Wachsam werden soll das System außerdem, wenn Freunde in Kommentaren Fragen stellen wie: „Ist alles okay bei dir?“ Oder: „Ich mache mir Sorgen um dich.“

45400508 © AP Vergrößern Gina Alexis weint um ihre 14 Jahre alte Tochter, die bei einer Pflegefamilie lebte und im Januar ihren Suizid in Florida auf Facebook Live übertragen hatte. Später kam heraus, dass die Mutter selbst die Suizid-Ankündigung verfolgt hatte und nicht eingeschritten war – wie Hunderte weitere auch.

Wenn der Test erfolgreich ist, wird das System Teil des Programms zur Prävention von Selbsttötungen, das es auf Facebook schon seit Jahren gibt. Bisher wurden vor allem gemeldete Beiträge analysiert – jetzt sollen die Tipps auch von dem Programm kommen. Erkennen dann auch die Facebook-Mitarbeiter Suizidabsichten, greift das oben erläuterte System. Die künstliche Intelligenz soll erst mal nur öffentliche Kommentare und Posts analysieren. Aber auch viele der Posts sind eigentlich nur für „Freunde“ gedacht, eine entsprechende Einstellung verspricht, dass sie sonst niemand sehen kann.

Grundsätzlich klingt es trotzdem erst mal logisch: Wer möchte kranken Menschen nicht helfen? Aber was bedeutet das alles eigentlich? Werden in Zukunft auch Smart-TV unsere Gespräche zu Hause analysieren, um zu prüfen, ob wir psychische Probleme haben? Warum haben das die Telefongesellschaften bisher nicht bei Gesprächen mit Freunden gemacht, in denen man über seine Probleme sprach? Und was wird aus den Daten, die über die psychische Gesundheit der Nutzer gesammelt werden?

Besonders sensible Gesundheitsdaten

Andrea Voßhoff (CDU), Bundesbeauftragte für Datenschutz, sieht die Initiative kritisch: „Der Einsatz einer derartigen Technik birgt zweifelsfrei die Gefahr, die Nutzer eines sozialen Netzwerks zum gläsernen Menschen zu machen.“ Schon mittels kleiner Abweichungen könne der genutzte Algorithmus nicht mehr nach suizidalen Tendenzen suchen, sondern beispielsweise Personen ausfiltern, denen eine potentiell kriminelle Neigung oder bestimmte politische oder religiöse Einstellungen unterstellt wird.

1 | 2 Nächste Seite   |  Artikel auf einer Seite
Nachrichten in 100 Sekunden
Nachrichten in 100 Sekunden