https://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/catrin-misselhorns-buch-kuenstliche-intelligenz-und-empathie-17325698.html

KI und Empathie : Gefühle machen es Maschinen auch nicht leicht

  • -Aktualisiert am

Sieh mich mal an, Kleiner! Und das, nebst einem Set von mimischen Ausdrücken, hat MEXI (Machine with Emotionally eXtended Intelligence) durchaus im Repertoire. Bild: Science Photo Library

Was können die Avatare, Roboter und Bots der Zukunft? Catrin Misselhorn zeigt, wie Forscher Künstlicher Intelligenz beibringen wollen, Emotionen zu erkennen und zu simulieren.

          4 Min.

          Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. „Affective Computing“ oder „Emotionale Künstliche Intelligenz“ heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.

          Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist – die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern –, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.

          Ist das Grinsen lustig oder ironisch?

          Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.

          Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.

          Künstlich gut gelaunt

          Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat – natürlich ohne Anspruch auf Vollständigkeit.

          Leider erfährt der Leser nicht, inwieweit diese Systeme schon zur Anwendung kommen. Und auch über ihre Auswirkungen kann Misselhorn nur Vermutungen anstellen: Menschen, die wissen, dass sie permanent beobachtet und ihre Emotionen analysiert werden, verändern ihr Selbstverständnis und ihr Verhalten, so die Autorin. Im Extrem könnte der Mensch sich in Zukunft gezwungen sehen, sich im öffentlichen Raum nicht nur unauffällig, sondern auch stets künstlich gut gelaunt zu bewegen.

          Es stellt sich die Frage nach der Moral

          Der Umgang mit den Möglichkeiten automatisierter Emotionserkennung ist derzeit die gesellschaftspolitisch relevanteste, aber nicht die einzige Baustelle im Bereich der „Emotionalen Künstlichen Intelligenz“. Eine andere ist die Frage, wie die Roboter, Avatare und Bots der Zukunft ausgestattet sein sollen. Künstliche Systeme empfinden nichts, aber sollten sie so tun, als ob? Misselhorn berichtet etwa vom Projekt NIKA, in dem Forschende in der Altenpflege mit einem Roboter experimentieren, der basale Emotionen erkennen und durch Gesten, Haltung und die Farbe seiner Augen selbst Emotionen simulieren soll. Die Emotionserkennung gelingt einer Studie zufolge in Ansätzen, die Interaktion von Mensch und Maschine ist aber weit von einer natürlichen entfernt. Mögen Menschen Systeme, die Emotionen vorspielen, eigentlich lieber als neutrale Maschinen? Die Datenlage scheint bislang zu dünn, um das zu beantworten.

          Könnte es Maschinen geben, die Emotionen nicht nur vorspielen, sondern tatsächlich empfinden? Die dann vielleicht auch echtes Mitleid haben könnten? Es ist ein etwas abseitiges Gebiet, aber auch dazu wird geforscht. Misselhorn sieht die erfolgversprechendsten Ansätze dazu im Bereich neuer synthetischer Materialien, die biologischem Leben möglichst nahekommen, und in Experimenten mit Stammzellen, die nach am Computer entwickelten Plänen zusammengesetzt werden. Ob Versuche, künstliche Emotionen zu schaffen, jemals erfolgreich sein werden, ist allerdings völlig offen. Die naheliegende Frage, ob es moralisch vertretbar wäre, erlebnisfähige und damit auch leidensfähige Maschinen zu bauen, stellt die Autorin nicht.

          Der Mensch als eine Art Maschine

          Stattdessen diskutiert sie, ob unser Umgang mit den gefühllosen, aber Gefühle vorspielenden Maschinen moralisch relevant ist. Hat, wer einen menschenähnlichen Roboter misshandelt, einen zweifelhaften Charakter oder ein gutes Unterscheidungsvermögen? Ersteres, so Misselhorn, denn vermutlich beschädige der Mensch mit solchem Handeln seine Fähigkeiten zu Empathie und Moral auch gegenüber seinen Mitmenschen.

          Im letzten Kapitel des Buches handelt Misselhorn vom Umgang mit Sexrobotern. Auch hier überwiegen ihre Bedenken. Diese Maschinen seien dazu angetan, Frauen zu verdinglichen. Und sie könnten dazu führen, andere Menschen in Liebesbeziehungen ebenfalls wie Roboter zu behandeln, in letzter Konsequenz könne der Mensch beginnen, sich selbst als eine Art Maschine zu betrachten.

          Vor Emotionaler Künstlicher Intelligenz kann die Autorin deshalb am Ende nur warnen: wegen der Überwachung, die Systeme zur Emotionserkennung ermöglichen, und wegen der Verwirrung, die scheinbar fühlende Maschinen unter Menschen anrichten könnten. Vieles ist in diesem Bereich noch unverstanden, viele Entwicklungen stehen erst am Anfang. Deshalb kommt Misselhorns vielseitiges Buch zur richtigen Zeit: Es hilft, diese Entwicklungen besser zu verstehen.

          Catrin Misselhorn: „Künstliche Intelligenz und Empathie“. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Reclam Verlag, Stuttgart, 2021. 181 S., br., 12,– €. 

          Weitere Themen

          Die Macht der Datenbarone

          FAZ Plus Artikel: DIGTEC : Die Macht der Datenbarone

          Zielt Elon Musk mit seinem Interesse an Twitter wirklich auf mehr Meinungsfreiheit? In jedem Fall geht es um den Zugang zu Daten – mit denen freie Gesellschaften viel Gutes tun könnten.

          Topmeldungen

          Das Kapitol in Washington, vom Supreme Court aus gesehen

          Urteil des Obersten Gerichts : Amerikas Klima-Versager

          Der Supreme Court macht deutlich: Klimapolitik ohne Kongress geht nicht. Seine Entscheidung ist nachvollziehbar – was allerdings nicht tröstet.
          Hat Corona – und hat recht: Hubert Aiwanger

          Fraktur : Ausgerechnet Aiwanger!

          Ist es besser, Corona vom bayerischen Wirtschaftsminister zu bekommen als von Martin Semmelrogge? Oder ist schon die Frage ungehörig?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.