https://www.faz.net/-gr3-abcle

KI und Empathie : Gefühle machen es Maschinen auch nicht leicht

  • -Aktualisiert am

Sieh mich mal an, Kleiner! Und das, nebst einem Set von mimischen Ausdrücken, hat MEXI (Machine with Emotionally eXtended Intelligence) durchaus im Repertoire. Bild: Science Photo Library

Was können die Avatare, Roboter und Bots der Zukunft? Catrin Misselhorn zeigt, wie Forscher Künstlicher Intelligenz beibringen wollen, Emotionen zu erkennen und zu simulieren.

          4 Min.

          Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. „Affective Computing“ oder „Emotionale Künstliche Intelligenz“ heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.

          Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist – die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern –, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.

          Ist das Grinsen lustig oder ironisch?

          Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.

          Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.

          Künstlich gut gelaunt

          Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat – natürlich ohne Anspruch auf Vollständigkeit.

          Leider erfährt der Leser nicht, inwieweit diese Systeme schon zur Anwendung kommen. Und auch über ihre Auswirkungen kann Misselhorn nur Vermutungen anstellen: Menschen, die wissen, dass sie permanent beobachtet und ihre Emotionen analysiert werden, verändern ihr Selbstverständnis und ihr Verhalten, so die Autorin. Im Extrem könnte der Mensch sich in Zukunft gezwungen sehen, sich im öffentlichen Raum nicht nur unauffällig, sondern auch stets künstlich gut gelaunt zu bewegen.

          Es stellt sich die Frage nach der Moral

          Der Umgang mit den Möglichkeiten automatisierter Emotionserkennung ist derzeit die gesellschaftspolitisch relevanteste, aber nicht die einzige Baustelle im Bereich der „Emotionalen Künstlichen Intelligenz“. Eine andere ist die Frage, wie die Roboter, Avatare und Bots der Zukunft ausgestattet sein sollen. Künstliche Systeme empfinden nichts, aber sollten sie so tun, als ob? Misselhorn berichtet etwa vom Projekt NIKA, in dem Forschende in der Altenpflege mit einem Roboter experimentieren, der basale Emotionen erkennen und durch Gesten, Haltung und die Farbe seiner Augen selbst Emotionen simulieren soll. Die Emotionserkennung gelingt einer Studie zufolge in Ansätzen, die Interaktion von Mensch und Maschine ist aber weit von einer natürlichen entfernt. Mögen Menschen Systeme, die Emotionen vorspielen, eigentlich lieber als neutrale Maschinen? Die Datenlage scheint bislang zu dünn, um das zu beantworten.

          Könnte es Maschinen geben, die Emotionen nicht nur vorspielen, sondern tatsächlich empfinden? Die dann vielleicht auch echtes Mitleid haben könnten? Es ist ein etwas abseitiges Gebiet, aber auch dazu wird geforscht. Misselhorn sieht die erfolgversprechendsten Ansätze dazu im Bereich neuer synthetischer Materialien, die biologischem Leben möglichst nahekommen, und in Experimenten mit Stammzellen, die nach am Computer entwickelten Plänen zusammengesetzt werden. Ob Versuche, künstliche Emotionen zu schaffen, jemals erfolgreich sein werden, ist allerdings völlig offen. Die naheliegende Frage, ob es moralisch vertretbar wäre, erlebnisfähige und damit auch leidensfähige Maschinen zu bauen, stellt die Autorin nicht.

          Der Mensch als eine Art Maschine

          Stattdessen diskutiert sie, ob unser Umgang mit den gefühllosen, aber Gefühle vorspielenden Maschinen moralisch relevant ist. Hat, wer einen menschenähnlichen Roboter misshandelt, einen zweifelhaften Charakter oder ein gutes Unterscheidungsvermögen? Ersteres, so Misselhorn, denn vermutlich beschädige der Mensch mit solchem Handeln seine Fähigkeiten zu Empathie und Moral auch gegenüber seinen Mitmenschen.

          Im letzten Kapitel des Buches handelt Misselhorn vom Umgang mit Sexrobotern. Auch hier überwiegen ihre Bedenken. Diese Maschinen seien dazu angetan, Frauen zu verdinglichen. Und sie könnten dazu führen, andere Menschen in Liebesbeziehungen ebenfalls wie Roboter zu behandeln, in letzter Konsequenz könne der Mensch beginnen, sich selbst als eine Art Maschine zu betrachten.

          Vor Emotionaler Künstlicher Intelligenz kann die Autorin deshalb am Ende nur warnen: wegen der Überwachung, die Systeme zur Emotionserkennung ermöglichen, und wegen der Verwirrung, die scheinbar fühlende Maschinen unter Menschen anrichten könnten. Vieles ist in diesem Bereich noch unverstanden, viele Entwicklungen stehen erst am Anfang. Deshalb kommt Misselhorns vielseitiges Buch zur richtigen Zeit: Es hilft, diese Entwicklungen besser zu verstehen.

          Catrin Misselhorn: „Künstliche Intelligenz und Empathie“. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Reclam Verlag, Stuttgart, 2021. 181 S., br., 12,– €. 

          Weitere Themen

          Ich existiere nicht

          Netzrätsel : Ich existiere nicht

          Es gibt so gut wie nichts, was es nicht gibt im Netz der Netze: Geniales, Interessantes, Nützliches und herrlich Überflüssiges. Diesmal: Geistergesichter aus dem Computer.

          Topmeldungen

          Vorbild für Moskau: Ein Mann lässt sich in der russischen Hauptstadt am Donnerstag mit dem Vakzin Sputnik V impfen

          Impfen in Russland : Moskau prescht mit Pflichtimpfung vor

          Moskaus Bürgermeister und zwei russische Regionen verpflichten Arbeitgeber, ihre Mitarbeiter gegen das Coronavirus zu impfen. Der Kreml hingegen zögert angesichts der Impfunwilligkeit der Russen.
          Annalena Baerbock signiert am Donnerstag nach der Vorstellung ihres Buches ein Exemplar

          F.A.Z. Exklusiv : Baerbocks Pakt mit der Wirtschaft

          Die grüne Kanzlerkandidatin konkretisiert ihr Wirtschaftsprogramm. Ein zentraler Punkt sind Klimaschutzverträge, über die sie Ökologie und Ökonomie in Einklang bringen will. Ganz neu ist die Idee allerdings nicht.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.