https://www.faz.net/-gwz-9jw42

Suizidprävention bei Facebook : Ganz im Vertrauen

  • -Aktualisiert am

Depressiv? Algorithmus findet das schon heraus. Bild: Foto ACE

Kann künstliche Intelligenz Menschen vom Suizid abhalten? Sie brauchen jedenfalls Hilfe von außen.

          Die gute Nachricht zuerst: Weltweit ist die Suizidrate deutlich gesunken. Die absoluten Zahlen stiegen zwar seit 1990 leicht an, und 2016 waren es mehr als 800.000 Suizidtote. Berücksichtigt man aber das weltweite Bevölkerungswachstum im gleichen Zeitraum, sank die Rate um rund ein Drittel. Das zeigt eine gerade im „British Medical Journal“ veröffentlichte Auswertung des 1992 von der Weltgesundheitsorganisation mitinitiierten Projekts „Global Burden of Disease“. Dafür werden Daten aus aller Welt zu den wichtigsten Ursachen von Krankheit und Tod gesammelt. In Deutschland entsprechen die Suizidzahlen ungefähr diesem globalen Trend, blieben seit 2007 aber auf einem Niveau von rund 10.000 Todesfällen im Jahr.

          Allerdings sind sich Fachleute einig, dass sich ein Großteil jener Menschen, die sich selbst das Leben nehmen, dies eigentlich gar nicht will. Insbesondere Jugendliche und junge Erwachsene, denen vielmehr eine Perspektive fehlt, wie sie ihre unüberwindlich erscheinenden Probleme lösen und zu einem lebenswerten Leben zurückfinden können. Dafür brauchen sie Hilfe von außen – und dieser verschließen sich Menschen mit suizidalen Gedanken oft. Die wichtige Frage, die auch die Autoren der aktuellen Studie stellen, lautet: Wie kann man Gefährdete besser erreichen?

          Wie die Algorithmen arbeiten, ist ein Betriebsgeheimnis

          Ein Ansatz, um gerade jüngere Menschen mit suizidalen Gedanken zu erkennen, bietet ihr digitaler Fußabdruck im Internet, vor allem in sozialen Netzwerken. Facebook zum Beispiel ist für Milliarden Menschen zu einer Plattform für ihr digitales Alter Ego geworden, auf der selbst Intimstes preisgegeben wird. Auf diese Weise können sich Suizidabsichten zeigen, werden manchmal sogar gefördert: Virtuelle Netzwerke wie Facebook, Instagram und Co.- machen es leicht, irgendwo auf der Welt selbst für die abwegigsten Interessen noch Gleichgesinnte zu finden, suizidale Absichten gehören dazu.

          Nach bitteren Erfahrungen mit Suiziden, die auf Facebook mehr oder minder offen angekündigt, unter Lebensmüden abgesprochen und manchmal sogar live übertragen wurden, führte der OnlineDienst Anfang 2017 in den Vereinigten Staaten ein neues Programm zur Prävention ein. Basis ist die gleiche Künstliche Intelligenz, mit der Facebook die Inhalte seiner Nutzer auswertet, um ihnen etwa maßgeschneiderte Werbung zu präsentieren. Wie diese Algorithmen arbeiten, ist Betriebsgeheimnis, auch wenn es um die Suche nach Suizidgefährdeten geht. Was man weiß: Beim Durchsuchen der Posts werden auch Inhalte registriert, die auf Selbstmordgedanken oder konkrete Suizidpläne hinweisen. Das können Begriffe sein, die mit Suizid, Selbstverletzung oder Depression zu tun haben, oder Kontaktaufnahmen zu anderen bereits beobachteten Nutzern. Facebooks Künstliche Intelligenz erzeugt daraus eine Art Suizidrisiko-Score auf einer Skala von eins bis zehn, auf der „Eins“ für „unmittelbare Gefahr“ steht. Aber Facebook setzt nicht nur auf Algorithmen: Verdachtsfälle landen bei Mitarbeitern. Und die entscheiden, ob sie einen für den betroffenen Nutzer sichtbaren Hinweis auf Hilfsangebote einblenden oder in akuten Fällen Polizei oder Notarzt alarmieren. „Im vergangenen Jahr haben wir Ersthelfern geholfen, rund 3500 Menschen weltweit zu erreichen, die Hilfe brauchten“, schrieb Facebook-Chef Mark Zuckerberg Ende 2018 in einem Blogbeitrag.

          Ob die Facebook-Mitarbeiter qualifiziert genug sind, um den Ernst der Situation erkennen, bleibt ebenfalls eine offene Frage

          Es sei begrüßenswert, dass sich Facebook vermehrt um die Erkennung suizidaler Absichten sorge, stellte vergangene Woche ein Kommentar in den „Annals of Internal Medicine“ fest. Doch das Sammeln und Speichern von Daten, die Rückschlüsse auf die geistige Gesundheit von Nutzern erlauben, werfe auch ernste Fragen auf. Wie gut seien die Facebook-Mitarbeiter qualifiziert, den Ernst einer Situation einzuschätzen? Was passiere im Falle eines falschen Alarms, wenn plötzlich vor den Augen von Nachbarn und Familie die Polizei an die Tür klopfe? Die Autoren reihen sich damit in einen Chor von Expertenstimmen, die besonders den Mangel an Transparenz und Datenschutz im Präventionsprogramm von Facebook kritisieren. Weil die entsprechenden Regeln in den Ländern der Europäischen Union eben erst verschärft wurden, setzt Facebook hier seinen Suizid-Scanner bisher nicht ein.

          Künstliche Intelligenz soll nicht nur mit der Durchforstung riesiger Datenberge wie den von Facebook produzierten helfen, um Hinweise auf Suizidgedanken zu finden. Im Großbritannien hat der staatliche Gesundheitsdienst NHS in der vergangenen Woche einen umfangreichen Bericht über die digitale Zukunft der Gesundheitsversorgung veröffentlicht. Als vorbildlich wird darin das Pilotprojekt eines „Mental Health Triage ChatBot“ vorgestellt, in dem ein sogenannter Smart Speaker den Londoner Allgemeinärzten helfen soll, potentiell psychisch Kranke und Suizidgefährdete zu identifizieren. Dahinter steckt Künstliche Intelligenz mit der Fähigkeit zur Erkennung und Produktion von gesprochener oder geschriebener Sprache, bekannte Beispiele sind Amazons Alexa oder der Google Assistant.

          Nur aufrichtig Anteil nehmende Menschen können wirklich helfen

          Es mag sein, dass solche schlauen Programme, die Patienten online aufsuchen, bevor sie zum Arzt gehen, Hinweise auf mögliche Probleme besser erfassen als umfangreiche Fragebögen aus Papier. Vielleicht ließe sich damit auch die Schwelle für eine erste Kontaktaufnahme erniedrigen. Ebenso möglich, dass die digitale Zukunft dem unterfinanzierten NHS weitere Einsparungen erlaubt. Sicher ist: Den Kontakt zu aufrichtig Anteil nehmenden Menschen können solche Anwendungen bestenfalls ergänzen, aber niemals ersetzen, da sind sich Experten und selbst Entwickler von Chatbots einig. Wie effektiv schon eine Sensibilisierung des sozialen Umfelds sein kann, zeigt eine eben im Fachblatt „JAMA Psychiatry“ erschienene Studie amerikanischer Forscher mit 448 Jugendlichen, die in den Jahren 2002 bis 2005 mit Suizidgedanken oder nach einem Suizidversuch in zwei psychiatrische Kliniken eingewiesen worden waren. Die eine Hälfte erhielt eine Standardbehandlung. Die anderen Jugendlichen wurden zusätzlich gebeten, drei bis vier Erwachsene zu nennen, die ihnen nahestanden. Diese Vertrauenspersonen erhielten ein Training, in dem sie über den Therapieplan, Warnzeichen für einen drohenden Suizid und mögliche Hilfestellungen aufgeklärt wurden.

          Die Langzeitergebnisse bis zum Jahr 2016 basieren zwar nur auf einer Stichprobe, zeigen aber klar: In den zehn Jahren nach dem Klinikaufenthalt starben 15 Patienten aufgrund von Suizid oder Drogenmissbrauch. Nur zwei stammten aus der Gruppe, deren Umfeld ausdrücklich sensibilisiert wurde. Die Vertrauenspersonen waren den meisten eine Hilfe. Was sich für psychische Krisen gedachte Chatbots nicht sagen lässt, die auf die Aussage, man würde sich „übergeben“ (Warnzeichen bei Magersucht), antworten: „Es ist immer schön, mehr über dich zu lernen und über das, was dich glücklich macht.“

          Weitere Themen

          KI in der Medizin Video-Seite öffnen

          Livestream : KI in der Medizin

          „Wo kann Künstliche Intelligenz in der Medizin helfen?“ Auf dem Podium für „Die Debatte“ sitzen im Kino Babylon: der Berliner Neurochirurg Dietmar Frey, der Freiburger Neuroethiker Philipp Kellmeyer und der Heidelberger Physiker und Krebsforscher Oliver Stegle.

          Topmeldungen

          FAZ Plus Artikel: Organisierte Kriminalität : Grenzenlose Großfamilien

          Kriminelle Großfamilien agieren weit über die lokalen Stadtgrenzen hinaus, ihre Verbindungen reichen bis ins Ausland. Nun will das BKA stärker gegen Clan-Kriminalität vorgehen – und deren Netzwerke genau unter die Lupe nehmen.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.