https://www.faz.net/aktuell/feuilleton/debatten/ki-ethikerin-timnit-gebru-verlaesst-google-wurde-sie-gefeuert-17095796.html

Profilierte Expertin für die Ethik Künstlicher Intelligenz: Timnit Gebru im Dezember 2018 in New York Bild: Picture-Alliance

KI-Ethikerin Timnit Gebru : Google verliert eine kritische Stimme

Timnit Gebru hat sich bei Google mit den ethischen Problemen großer Sprachmodelle befasst. Dann wollte das Unternehmen ihre Forschungsergebnisse nicht veröffentlichen. Der Fall beschäftigt nicht nur die KI-Community.

          2 Min.

          Timnit Gebru arbeitet nicht mehr bei Google. Sundar Pichai, der Chef des Unternehmens, nennt die Forscherin eine Expertin in einem wichtigen Bereich der Ethik Künstlicher Intelligenz, eine herausragende schwarze, weibliche Führungskraft mit riesiger Begabung, und bedauert in einer Mitteilung an seine Mitarbeiter vom Mittwoch, die das Magazin Axios wiedergibt, dass sie „Google unglücklich verlassen“ habe. Die Anerkennung kommt von höchster Stelle, aber sie kommt spät und in der Absicht, Wogen zu glätten, die schnell die unternehmensinterne Aufregung um eine Personalie überstiegen haben.

          Fridtjof Küchemann
          Redakteur im Feuilleton.

          Tatsächlich hat der Fall es in sich: In ihm kreuzt sich die Diskussion um den Umgang Googles mit Minderheiten mit der um den Umgang mit möglicherweise missliebiger Meinung. Google hatte unlängst die Veröffentlichung eines Papers verhindert, in dem Timnit Gebru mit einigen Ko-Autoren ethische Bedenken beim Einsatz von riesigen Sprachmodellen zum Thema macht – von Modellen wie dem jüngst breit diskutierten GPT-3 (F.A.Z. vom 26. November) oder dem von Google entwickelten BERT, ohne das einige zentrale Angebote des Unternehmens auf aktuellem Stand nicht denkbar wären.

          Google trage die Verantwortung, schreibt Pichai in seiner Botschaft vom Mittwoch – ob am Weggang der geschätzten Kollegin oder an den unglücklichen Umständen, lässt er offen. Timnit Gebru selbst spricht davon, gefeuert worden zu sein. Glaubt man Jeff Dean, dem leitenden Wissenschaftler in Googles Bereich Künstliche Intelligenz, erfüllte ihr Artikel schlicht nicht die üblichen Standards zur Veröffentlichung. Zu viel relevante Forschung sei in ihm unberücksichtigt geblieben, führt er in einer internen Nachricht aus, die er Ende voriger Woche über Twitter öffentlich gemacht hat. Außerdem habe Gebru den Artikel noch während seiner internen Prüfung, für die im Allgemeinen zwei Wochen angesetzt sind, zur Veröffentlichung weitergeleitet. Als sie schließlich eine Reihe von Bedingungen für die Fortsetzung ihrer Arbeit bei Google gestellt und einen Zeitpunkt zum Verlassen des Unternehmens habe festsetzen wollen, falls die Bedingungen nicht erfüllt würden, sei das als Kündigung aufgefasst worden.

          Unliebsame Bedenken

          Über eine Ko-Autorin, die nicht für Google arbeitet, hat die „MIT Technology Review“ eine frühe Fassung des Artikels erhalten. Nach Darstellung des Magazins beklagen die Forscher hierin, dass die Fähigkeit solcher Modelle, menschliche Sprache nachzuahmen, Missbrauch wie die Desinformation über Wahlen oder über die Corona-Pandemie ermöglicht. Zudem könnten sich selbstlernende Sprachmodelle rassistische, sexistische und sonstwie verletzende Redeweisen aneignen, wenn die Daten, mit denen sie trainiert werden, nicht vorher sorgfältig ausgewählt würden.

          Bewusst entwickelte sensible Ausdrucksformen würden in der Masse untergehen, und antrainierte Vorurteile solcher Systeme ließen sich nicht zurückverfolgen und dokumentieren. Völker und Länder mit „kleinerem linguistischen Fußabdruck“ im Internet würden von den gigantischen Sprachmodellen nicht repräsentiert, das Ergebnis sei eine homogenisierte Sprache, ein Abbild der reichsten Länder und Gemeinschaften. Schließlich kritisierten die Autoren die finanziellen Kosten und den hohen CO2-Ausstoß, der mit dem Einsatz dieser Technologie verbunden ist.

          Auf manche dieser Einwände mag Google bessere Antworten geben können als auf andere. Unliebsam sind sie allesamt - zumal, weil sie mehrheitlich aus dem Inneren des Unternehmens geäußert werden. Im Umgang mit dieser Kritik jedenfalls gibt Google kein gutes Bild ab. Auch Sundar Pichai hat es nicht retten können, wenn er in seiner Botschaft lediglich eingesteht, der Vorgang habe Zweifel gesät und einige in der Google-Gemeinschaft dazu gebracht, ihren Platz in Frage gestellt zu sehen. 

          Weitere Themen

          Versteht mein Computer, was er tut?

          John Searle zum 90. : Versteht mein Computer, was er tut?

          Das menschliche Denken steckt voller Rätsel. Die Entwicklung von Computern, die unser Denken nachahmen sollen, lässt es nur noch mysteriöser erscheinen. Der Philosoph John Searle hat unermüdlich versucht, diese Rätsel zu lösen.

          Topmeldungen

          Vermisst Olaf Scholz Angela Merkel? Das wüssten wir auch gern

          Fraktur : Was wir Scholz gerne geglaubt hätten

          Doch offenbar ist auch der Kanzler ein Freund der Ironie. Deshalb blieb auf der Sommerpressekonferenz die wichtigste Frage offen.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.