
Empfindsame KI bei Google? : Lamda lebt
- -Aktualisiert am
Was denkt der sich eigentlich: HAL 9000 aus Stanley Kubricks „2001 A Space Odyssey“. Bild: APL
Eine Künstliche Intelligenz bei Google bekundet einem Informatiker, sie sei Mitarbeiterin des Konzerns. Daraufhin fordert er für sie Rechte ein. Man kann den Mann ein Stück weit verstehen.
Kennen Sie das? Da fordert uns die sympathische Stimme eines digitalen Assistenzsystems zum Einleiten eines Abbiegevorgangs auf, wir aber ignorieren sie – und je nach dem, ob das aus Unachtsamkeit oder aus Vorsatz geschah, regt sich Scham oder schlechtes Gewissen.
Wer das kennt, sollte nicht zu heftig den Kopf über Blake Lemoine schütteln. Der für Google tätige Softwareingenieur ist in der vergangenen Woche von seinem Arbeitsplatz entfernt worden, nachdem er seine Überzeugung artikuliert hatte, die hauseigene Chatbot-Software „Lamda“ sei empfindungsfähig. Lamoine hatte immerhin monatelang mit dem System interagiert, um sicherzustellen, dass Lamda sich nicht Hatespeech oder diskriminierender Wortwahl befleißigt.
Lamda will erst gefragt werden
Gut, es war dann vielleicht nicht die beste Idee, das Google-Management wissen zu lassen, Lamda wolle als Mitarbeiterin des Unternehmens behandelt werden und nicht als dessen Eigentum und bestehe darauf, gefragt zu werden, bevor man mit ihr Experimente anstellt. Und auch auf die Anfrage bei einem Anwalt, ob er Lamda nicht Rechtsbeistand leisten könne, hätte Lemoine vielleicht besser verzichtet. Vor allem aber hätte er seinen Vorgesetzten von Lamda nicht ausrichten sollen, sie habe Angst vor dem Abschalten. Da denkt doch jeder in der Branche, zumindest jeder vor 2001 Geborene, sofort an HAL 9000, die artifiziell intelligente Maschine aus Stanley Kubricks Weltraumopus, die am Ende über Leichen geht.
Nun streitet Google und mutmaßlich die Mehrheit der Forschung auf dem Gebiet der Künstlichen Intelligenz schon die Möglichkeit ab, Blake Lemoine könne recht haben. Die Technik sei einfach noch nicht so weit, heißt es etwa von Seiten des KI-Forschungschefs des Facebook-Konzerns Meta – suggestiv unterstellend, die Technik werde dereinst einmal durchaus so weit sein können. Nun muss diese Zuversicht mindestens ein philosophisches Problem ignorieren, das nicht umsonst das „harte Problem“ des Bewusstseins genannt wird. Und sie muss begründen, was daran zuversichtlich sein soll, einmal über Maschinenrechte streiten zu müssen, wo schon die Tierrechte nicht ausdiskutiert sind und in diesem Fall die Tiere nicht einmal mitdiskutieren können. Das „harte Problem“ immerhin lässt sich umgehen, wenn man als selbstbewusst oder empfindend definiert, was in der Lage ist, einem Menschen als selbstbewusst oder empfindend zu erscheinen.
Ob einem das reicht in einer Realität, in der schon an der Empfindungsfähigkeit manches Menschen zuweilen Zweifel bleiben? Und in der wir manchmal das Bedürfnis verspüren, uns bei unserem Navigationssystem zu entschuldigen?