https://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/catrin-misselhorns-buch-kuenstliche-intelligenz-und-empathie-17325698.html

KI und Empathie : Gefühle machen es Maschinen auch nicht leicht

  • -Aktualisiert am

Sieh mich mal an, Kleiner! Und das, nebst einem Set von mimischen Ausdrücken, hat MEXI (Machine with Emotionally eXtended Intelligence) durchaus im Repertoire. Bild: Science Photo Library

Was können die Avatare, Roboter und Bots der Zukunft? Catrin Misselhorn zeigt, wie Forscher Künstlicher Intelligenz beibringen wollen, Emotionen zu erkennen und zu simulieren.

          4 Min.

          Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. „Affective Computing“ oder „Emotionale Künstliche Intelligenz“ heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.

          Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist – die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern –, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.

          Ist das Grinsen lustig oder ironisch?

          Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.

          Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.

          Künstlich gut gelaunt

          Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat – natürlich ohne Anspruch auf Vollständigkeit.

          Weitere Themen

          Die Macht der Datenbarone

          FAZ Plus Artikel: DIGTEC : Die Macht der Datenbarone

          Zielt Elon Musk mit seinem Interesse an Twitter wirklich auf mehr Meinungsfreiheit? In jedem Fall geht es um den Zugang zu Daten – mit denen freie Gesellschaften viel Gutes tun könnten.

          Topmeldungen

          Nicht mehr ganz so glänzend: Neue Tesla-Autos in der staubigen Grünheider Landschaft

          Tesla-Fabrik in Grünheide : Nicht mehr ganz so Giga

          Die Produktion stockt, die Personalsuche auch: Bei Tesla läuft es nicht rund. Jetzt formiert sich auch noch Widerstand gegen die Erweiterung des Werks, denn der Wald, der dort jetzt steht, war nie als Gewerbefläche gedacht.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.