https://www.faz.net/asv/vor-denker-1/ethik-beginnt-bereits-in-der-entwicklung-17079460.html
Anzeigensonderveröffentlichung
Anzeigensonderveröffentlichung
Eine Initiative von

Ethik beginnt bereits in der Entwicklung

Das Interview führte Klaus Lüber
7:30 Minuten Lesezeit
DD.MM.YYYY
Eine Initiative von

Künstliche Intelligenz (KI) hat den Ruf, zwar inzwischen in vielen Bereichen sehr gute Ergebnisse zu erzielen, dabei aber ethische und moralische Aspekte kaum oder nur ungenügend zu berücksichtigen. Woran das liegt, was man dagegen tun kann und welche Verantwortung Unternehmen in der KI-Entwicklung zukommt, davon berichtet Dr. Tina Klüwer, Mitgründerin der parlamind GmbH und Sachverständige der Enquete-Kommission des Bundestages für Künstliche Intelligenz.

Frau Dr. Klüwer, Anfang des Jahres 2020 wurde der Fall eines KI-gestützten Gesichtserkennungssystems in einem Mietshaus in Brooklyn bekannt. Die Software funktionierte gut bei weißen Männern, versagte aber bei Schwarzen und konnte hier nicht einmal Männer von Frauen unterscheiden.

Das ist sicher ein besonders drastisches Beispiel dafür, wie KI-Systeme diskriminierende und unethische Entscheidungen treffen. Die spannende Frage an dieser Stelle ist nur: Haben wir es hier mit einem grundsätzlichen Problem zu tun? Oder schlicht mit einer extrem schlecht programmierten Software?

Man kann auf jeden Fall sagen: Eine Gesichtserkennung, die Mieter nicht mehr in ihre Wohnung lässt, hat ihren Zweck deutlich verfehlt.

Genau das ist der Punkt. Alle ethischen Implikationen einmal beiseitegelassen, handelt es sich einfach um ein schlechtes Produkt mit eklatanten Mängeln in der Entwicklung. Das Problem liegt offensichtlich in den Daten, mit denen man das System trainiert hat. Wenn ich weiß, wofür das System eingesetzt werden soll und in welcher Situation und mit welchen Daten es zur Realzeit arbeitet, dann muss ich natürlich dafür sorgen, dass in der Trainingsphase des Produkts mit den entsprechenden Daten trainiert wird. Und das hat man hier, aus mir nicht nachvollziehbaren Gründen, offenbar versäumt.

Schützen uns ausgewogene Trainingsdaten also vor unethisch entscheidenden Maschinen?

Ganz so einfach ist es natürlich nicht. Zunächst muss man sich bewusstmachen: Es gibt keine diskriminierenden, unethischen oder voreingenommenen maschinellen Entscheidungen, die unabhängig von menschlichem Input wären. Selbst wenn man sich viel Mühe gibt und die Daten so divers wie nur irgend möglich zusammensetzt, bleiben es letztlich menschliche Erzeugnisse, mit denen wir es hier zu tun haben. Und die, weil sie quasi aus unseren Köpfen kommen, auch immer Ergebnisse von Entscheidungen und Interpretationen sind.

Sie meinen, die Maschinen werden, ob wir wollen oder nicht, immer unsere eigenen Fehler reproduzieren?

Ja. Aber wir haben auch die Chance, solche Fehlschlüsse zu minimieren – genauso, wie wir selbst ja in der zwischenmenschlichen Kommunikation Kontrollmechanismen für diskriminierende Entscheidungen eingebaut haben, etwa wenn Personalentscheidungen von Betriebsräten mitgetragen werden. Dies können wir in gewisser Weise auch in Software implementieren.


Weitere Beiträge der VOR:DENKER
Teaser empfohlener Artikel
DATENSICHERHEIT
Wie ein Wombat Brücken baut zwischen Recht und Verständnis
Teaser empfohlener Artikel
KÜNSTLICHE INTELLIGENZ
„Wer nicht optimistisch ist, wird die Welt nur schwer verändern können“

Das hört sich kompliziert an.

Ist es in seiner Grundidee aber gar nicht. Schauen wir uns doch einmal an, wie Menschen sich entscheiden. Da passiert etwas in unseren Köpfen, das nicht nur von unseren Mitmenschen schwer zu interpretieren ist, sondern uns selbst ja auch oft gar nicht bewusst wird. Nun haben wir Maschinen, deren Input und vor allem Output wir sehr genau überwachen können. Es wäre nicht abwegig, sich vorzustellen, maschinelle Entscheidungsprozesse damit in Zukunft transparenter zu gestalten als menschliche.

„Natürlich ist es notwendig und technisch auch sehr gut umsetzbar, den Umgang mit KI transparent zu gestalten.“

Aber wird nicht immer wieder darauf hingewiesen, dass KI-Systeme in ihren Entscheidungen geradezu intransparent sind? Weil aufgrund ihrer Komplexität selbst Entwickler nicht mehr erklären können, was im Inneren des Algorithmus abläuft?

Ich denke, man muss hier unterscheiden. Natürlich ist es notwendig und technisch auch sehr gut umsetzbar, den Umgang mit KI transparent zu gestalten. Das heißt zum Beispiel, dass sich solche Systeme immer dann, wenn sie direkt mit dem Menschen agieren, auch als solche zu erkennen geben.


Sie meinen die Chat- und E-Mail-Bots, die Sie in Ihrer Firma parlamind entwickeln?

Ja, das gilt natürlich für unsere wie für alle Systeme, die über Sprache mit Menschen interagieren. Hier sind sich übrigens sämtliche Akteure, sowohl die Unternehmen, die Nutzer und auch die Politik, einig. In allen KI-Leitlinien, die gerade geschrieben werden, steht das Transparenzgebot immer an zentraler Stelle.

„Sie müssen die Entwicklerinnen und Entwickler aktiv sensibilisieren für ethische und moralische Aspekte ihrer Arbeit und sie auch kontinuierlich dazu schulen.“

Interessant, dass Sie das so betonen. Man hatte ja lange den Eindruck, dass unter Entwicklern eine Art Wettlauf herrscht, KI-Assistenten eben so zu programmieren, dass sie von Menschen nicht mehr ohne weiteres zu unterscheiden sind.

Sie sprechen die inzwischen berühmt-berüchtigte Präsentation von Googles Chatbot Duplex 2018 an, der zunächst dafür gefeiert wurde, Essen bestellen und Termine vereinbaren zu können, ohne dass man ihn als Maschine erkennt. Das war natürlich auf den ersten Blick beeindruckend. Allerdings gab es kurz danach auch einen Aufschrei der Empörung – und das in den Vereinigten Staaten, die bekanntermaßen einen etwas pragmatischeren Zugang zu neuen Technologien pflegen. Menschen, das wissen wir inzwischen aus einer Vielzahl von Studien, fühlen sich mit solchen Systemen nicht wohl. In Europa, da bin ich fest überzeugt, hätten solche Bots keine Chance auf dem Markt.

Aber inwieweit können wir uns hier wirklich auf den Markt verlassen?

Natürlich funktioniert das nur, wenn auch die Unternehmen Verantwortung übernehmen und Themen wie Datendiversität und Transparenz in ihren Entwicklungsprozess integrieren. Dazu gehört übrigens auch, für eine möglichst große Vielfalt im Team zu sorgen. Nicht nur die Daten, mit denen man arbeitet, sondern auch diejenigen, die mit ihnen arbeiten, sollten so divers wie möglich sein. Und selbst das reicht nicht aus. Sie müssen die Entwicklerinnen und Entwickler aktiv sensibilisieren für ethische und moralische Aspekte ihrer Arbeit und sie auch kontinuierlich dazu schulen.


Nun hat man als Unternehmen für Diversity im Team gesorgt, nimmt Qualitätsleitlinien wie das Transparenzgebot ernst – wie kommt man denn eigentlich an die ausgewogene Datenbasis, von der wir nun schon so viel gesprochen haben? Das hört sich ja immer so leicht an ...

... ist es aber natürlich nicht. Ich kann da aus eigener Erfahrung berichten. Als wir mit parlamind gestartet sind, hatten wir zunächst überhaupt keine Daten zur Verfügung. Und so geht es ja vielen Unternehmen, die mit einer Produktidee im Bereich Künstliche Intelligenz reüssieren wollen. Dann steht natürlich die Frage im Raum: Kaufen wir Datensätze ein? Und wenn ja, wie können wir garantieren, dass diese ausgewogen genug sind? Geschweige denn überhaupt legal erworben wurden?


Wie haben Sie sich entschieden?

Gegen den Einkauf von Daten und für die Arbeit mit Pilotkunden. Wir haben uns unsere Datenbasis also gewissermaßen selbst durch die Ergebnisse unserer Trainings erarbeitet und hatten dadurch immer eine starke Kontrolle. Aber natürlich ist das keine Lösung für alle Unternehmen und manchmal hat man eben keine andere Wahl, als große Datensätze zuzukaufen.


Hier würde doch so etwas wie ein Gütesiegel für vertrauenswürdige Daten helfen, oder?

„Wir haben es hier, anders als die im Deutschen mögliche Verwendung des Begriffs „Intelligenz“ als Quasi-Entität, eben nicht mit gefährlichen, die Weltherrschaft anstrebenden Systemen zu tun, denen man schleunigst und mit aller Kraft den Riegel vorschieben müsste. Sondern mit Software, die für klar definierte Anwendungsbereiche sehr gute Ergebnisse erzielen kann.“ Tweet it

Auf jeden Fall. Und daran wird ja an vielen Stellen gearbeitet. Der KI-Bundesverband, bei dem ich im Vorstand engagiert bin, hat in seinem Gütesiegel bereits einen Passus integriert, der sich dem Thema Trusted Networking widmet. Und zum Glück gibt es auf Seiten der Politik, aber auch der Unternehmen und Konsumenten die spürbare Bereitschaft, an einer vertrauenswürdigen Infrastruktur zu arbeiten. Genau hier setzt ja auch die EU-Cloud Gaia-X an. Was wir im nächsten Schritt dringend brauchten, wäre allerdings die Möglichkeit einer Zertifizierung. Die gibt es im Augenblick noch nicht.


Brauchen wir generell mehr Regulierung im Bereich KI?

Da bin ich skeptisch. Was auch daran liegt, dass der Begriff Künstliche Intelligenz, wie wir ihn verwenden, immer noch zu großen Missverständnissen führt. Wir haben es hier, anders als die im Deutschen mögliche Verwendung des Begriffs „Intelligenz“ als Quasi-Entität, eben nicht mit gefährlichen, die Weltherrschaft anstrebenden Systemen zu tun, denen man schleunigst und mit aller Kraft den Riegel vorschieben müsste. Sondern mit Software, die für klar definierte Anwendungsbereiche sehr gute Ergebnisse erzielen kann. Entscheidend ist nicht die Tatsache, ob es KI-Systeme sind, sondern wofür ich sie einsetze.

Das heißt, wir benötigen gar keine KI-spezifischen Gesetze?

Nein. Es geht immer um den Einzelfall. Natürlich sollten wir uns Gedanken machen, welche Risiken die Interaktion von Mensch und Maschine birgt. Aber hierfür haben wir heute schon sehr gute Regelwerke, denken Sie an die europäische Datenschutz-Grundverordnung DSGVO. Statt uns auf KI zu fokussieren, sollten wir den Blick lieber möglichst breit halten. Wenn ich zehn Jahre vorausdenke, dann könnte ich mir sehr gut vorstellen, dass wir es mit Human-Brain-Interfaces zu tun haben. Das werden dann nicht zwingend KI-Systeme sein. Trotzdem sollten wir uns schon heute damit beschäftigen.

Aber KI wird sich massiv weiterentwickeln. Darauf sollten wir doch auch vorbereitet sein, oder nicht?

Natürlich. Doch ich sehe das ganz nüchtern. Das werden auch mittel- und langfristig Systeme sein, die ganz spezifische Aufgaben für uns erledigen. Durchsetzen wird sich das, was uns nützt. Auch wenn das – wie übrigens auch unsere Bots bei parlamind funktionieren – bedeutet, bei einer bestimmten Fragestellung an den Menschen abzugeben.

Nach dem Motto: „Entschuldigung, aber diese (moralische) Entscheidung traue ich mir nicht zu.“

Ja, genau!

Bild about
Dr. Tina Klüwer
Mitgründerin der parlamind GmbH und Sachverständige der Enquete-Kommission des Bundestages für Künstliche Intelligenz
Tina Klüwer forschte und publizierte zehn Jahre zu den Themen Chatbots, Dialogsysteme und Textanalyse. Sie promovierte in Computerlinguistik an der Universität des Saarlandes und arbeitete am Deutschen Forschungszentrum für Künstliche Intelligenz, der Universität Bonn und der Freien Universität Berlin. Sie ist Mitglied des K.I.-Bundesverbandes, Associate des Discourse Research Lab der Universität Potsdam sowie Mitglied der K.I.-Enquete Kommission des Bundestags.
Diesen Artikel teilen

Quelle: Vor:Denker

Veröffentlicht: 18.01.2019 13:19 Uhr