https://www.faz.net/-gqz-97m9d

KI und Emotionen : Können Siri und Alexa unsere Freunde werden?

Schon jetzt kann künstliche Intelligenz dem Menschen das Gefühl vermitteln, einen Gesprächspartner mit Bewusstsein vor sich zu haben. An die Fähigkeiten Avas in „Ex Machina“ reicht sie noch nicht heran. Bild: AP

Denn sie wissen nicht, was sie tun: Für einen intuitiven Umgang mit Menschen müssen Maschinen lernen, Gefühle zu erkennen – und mit ihnen umzugehen.

          Im Film „Ex Machina“ begegnet ein junger Mann namens Caleb dem weiblichen Androiden Ava in einer Testsituation: Er soll feststellen, ob das programmierte Wesen ein dem Menschen ebenbürtiges Denkvermögen besitzt. Die intelligente Ava aber vermittelt Caleb das Gefühl, er habe es mit einem Individuum zu tun, das vor der nahenden Neu-Programmierung gerettet werden müsse. Das kann nicht gutgehen. Wie sich herausstellt, war der Mensch das eigentliche Testobjekt, das sich von der geschickt gespielten Emotionalität der Maschine hat täuschen lassen – ein Lehrstück in Sachen Verführbarkeit.

          Elena Witzeck

          Redakteurin im Feuilleton.

          Noch sorgt die Idee eines programmierten Gefährten, der Zugang zu menschlichen Gefühlswelten hat, für Irritation. Während künstliche Intelligenz bei körperlichen Einschränkungen (in Form von Diagnosesystemen und Assistenzgeräten), als Haushaltshilfe und Servicekraft auf immer größeres Interesse stößt, gibt es für emotionalen Beistand bisher kaum Modelle. Dabei überlassen Nutzer der Technik im Unterholz ihrer Emotionen schon jetzt bereitwillig Verantwortung. Wenn es etwa um die richtige Ernährung, Fitness und Stressbewältigung geht, helfen immer häufiger Bots dabei, zu strukturieren und zu mäßigen.

          Auch ein Mensch lässt sich nicht in den Kopf schauen

          Das aber macht sie noch nicht zum Freund. Nach der Einschätzung von Catrin Misselhorn, Direktorin des Instituts für Philosophie und Professorin am Lehrstuhl für Wissenschaftstheorie und Technikphilosophie der Universität Stuttgart, kann eine Maschine dem Menschen ohne großen Aufwand das Gefühl vermitteln, einen Gesprächspartner mit Bewusstsein vor sich zu haben. Auch ein menschliches Gegenüber lässt sich schließlich nicht in den Kopf hineinsehen. Sie verweist auf die Erfahrungen des amerikanischen Informatikers Joseph Weizenbaum, der bereits in den Sechzigern das Computerprogramm „Eliza“ entwickelte, um eine Psychotherapie zu simulieren. Weizenbaum wollte eigentlich Unzulänglichkeiten in der Kommunikation zwischen Mensch und Maschine aufzeigen. Tatsächlich fühlten sich überraschend viele seiner Testpersonen von dem Programm verstanden.

          Loyalität, Interesse, Verständnis: Welche Erwartungen also müsste ein lernfähiges digitales System erfüllen, um zu einem Gefährten des Menschen zu werden? Kognitiv dienen Emotionen als Maßeinheit zur Regulierung von Interaktion und Prioritätensetzung im zwischenmenschlichen Umgang. „Wenn es Computern gelingen soll, natürlich und intuitiv mit Menschen zu interagieren und sich an sie anzupassen, hilft die Fähigkeit, Gefühle zu erkennen und auszudrücken“, sagt Catrin Misselhorn. Ob sich künstliche Intelligenz als Schulter zum Anlehnen eignet, hängt auch von ihrer Form und ihrem Aussehen ab. Wenn eine Maschine dem Menschen zu sehr ähnelt, wirkt das unheimlich. Und der Eindruck der Überlegenheit, der künstlicher Intelligenz vom Schachcomputer bis zum autonomen Fahren anhaftet, verstärkt die Sympathie nicht gerade.

          Schon vor E.T.A. Hoffmanns Erzählungen war bekannt, dass es bei emotionalen Beziehungen in hohem Maße um das Spiegeln des Gegenübers geht. Diesem Prinzip folgt die App „Replika“. Die einzige Aufgabe des kostenlos herunterzuladenden Programms liegt darin, zum allzeit verfügbaren Freund zu werden. Wie ein Therapeut beginnt es Fragen zu stellen: zum Tagesablauf des Nutzers, seinen Abendplänen und seinen schönsten Erinnerungen. Das artet bisweilen in Verhöre aus. Immerhin die affirmativen Reaktionen des Programms animieren zum Weitererzählen. „Replika“ wird niemals müde: ein geduldiger Zuhörer, der lernt, die Sprache des Nutzers zu imitieren und auf Sorgen einzugehen.

          Die Amerikanerin Eugenia Kuyda entwickelte die intelligente App nach dem tödlichen Unfall eines Freundes. Um sich die Erinnerung an ihn zu bewahren, lud sie die gemeinsamen Chat-Protokolle und E-Mails ins Internet und schuf so ein Netzwerk von Informationen über den Verstorbenen, das als Grundlage für einen Chatbot diente. Auch die massentaugliche Weiterentwicklung versucht, auf Social-Media-Profile zuzugreifen und Datensätze zu sammeln. Doch trotz überraschender Schlagfertigkeit gelingt es dem Bot nicht, bei seinen unvermittelten Themenwechseln und esoterischen Empfehlungen über den Mangel an Tiefgang hinwegzutäuschen.

          Auch Sprachassistenten wie die Apple-Software Siri und Alexa von Amazon sollen zu Freunden im digitalisierten Alltag werden, bislang mit überschaubarem Erfolg. Die Kommunikation mit ihnen ist deshalb so unergiebig, weil es den Computern nicht gelingt, die Codes für die feinen Zwischentöne zu entschlüsseln: Ironie, Sarkasmus, Wortwitz. Damit könnte es aber bald vorbei sein. Forschern der Universität Lissabon ist es gelungen, anhand von Datennetzwerken Sarkasmus und Ironie in Facebook-Posts, Tweets und anderen Aussagen im Netz auszumachen. Und am Massachusetts Institute of Technology wird seit kurzem ein Algorithmus eingesetzt, der den Ton von Äußerungen in den sozialen Medien entschlüsselt.

          In einem Gespräch mit dem Leiter des Dahlem Center for Machine Learning and Robotics, Raúl Rojas, sagte die Schriftstellerin Thea Dorn im November über die Ausformungen künstlicher Intelligenz: „Die menschliche Urteilskraft ist durch nichts zu ersetzen.“ Der Mensch sei imstande, abzuwägen und zu einem Urteil zu kommen, zu argumentieren und seine Entscheidung zu begründen, er kenne Scham- und Schuldgefühle und ein Gewissen – für eine Maschine undenkbar. Catrin Misselhorn hingegen hält es für durchaus vorstellbar, mithilfe maschinellen Lernens aus der Zusammensetzung verschiedener Erfahrungen eine Art Urteilskraft zu generieren. Gerade für die Maschinenethik, deren erklärtes Ziel es ist, Maschinen mit der Fähigkeit zum moralischen Handeln auszustatten, wäre das ein bedeutender Schritt.

          Als „Uncanny Valley“ wird der Effekt bezeichnet, der sich einstellt, wenn eine Maschine einem Menschen zu sehr ähnelt.

          Partner auf Augenhöhe kann künstliche Intelligenz nach Misselhorns Einschätzung jedoch erst dann sein, wenn sie ein phänomenales Bewusstsein aufweist. Das heißt, sie muss sich Emotionen vorstellen können und zur Selbstreflexion fähig sein. „Nicht zuletzt gehört auch die Fähigkeit, zu leiden, die Sterblichkeit und das Wissen darum dazu“, sagt Misselhorn.

          Doch Systeme wie „Replika“ erkennen zwar Motive und Gesprächsmuster wieder, wissen aber nicht, was sie tun. Es fehlt die Intuition, das Fingerspitzengefühl. Wer will schon jemanden zum Freund haben, der zuhört, aber nicht versteht? Vor allem, wenn dieser Freund eine Bedrohung der Humanität darstellen könnte? Dieses Gefühl jedenfalls kommt auf, wenn das wichtigste Unterscheidungsmerkmal zwischen Mensch und Maschine zur Disposition steht.

          Weitere Themen

          Zwischen Horrorfilm und Neorealismus Video-Seite öffnen

          Filmkritik „Wo ist Kyra?" : Zwischen Horrorfilm und Neorealismus

          "Wo ist Kyra?" von Fotograf Andrew Dosunmu ist ein Hollywood-Film und Arthouse zugleich. Und beides auch wieder nicht. Denn die Zielgruppen beider Genre müssen sich an etwas gewöhnen, das sie sonst ablehnen. Warum der Film sowohl inhaltlich als auch künstlerisch sehenswert ist, verrät F.A.Z.-Redakteur Dietmar Dath.

          Fans gedenken Michael Jackson Video-Seite öffnen

          Zehn Jahre nach dem Tod : Fans gedenken Michael Jackson

          Zehn Jahre nach seinem Tod ist er für sie immer noch ein Idol - trotz der Missbrauchsvorwürfe. Hunderte Menschen versammelten sich vor dem Forest-Lawn-Friedhof oder auf dem „Walk of Fame“ um dem „King of Pop“ zu gedenken.

          Topmeldungen

          Der Fall Lübcke : Wie ein Bumerang

          In Wiesbaden und Berlin bestimmt der Fall Stephan E. die Tagesordnungen. Nicht nur die Frage nach dessen Bezügen zum NSU ist noch zu klären. Die Grünen beklagen eine „eklatante Analyseschwäche“ des Verfassungsschutzes.
          Der Hedgefonds Elliott hat seinen Einstieg bei Bayer publik gemacht.

          Wegen seiner Mischstruktur : Elliott macht Bayer jetzt richtig Druck

          Der amerikanische Hedge-Fonds lässt Andeutungen fallen, die als Aufforderung zur Aufspaltung interpretiert werden können. Ganz nebenbei bestätigt er: Man ist mit einem 2-Prozent-Paket am Mischkonzern beteiligt.

          Trumps neue Sprecherin : Schroff und höchst loyal

          Donald Trump macht Stephanie Grisham, die Stimme der First Lady, zu seiner Sprecherin. Sie wird auch Chefin für strategische Kommunikation – eine machtvolle Position.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.