https://www.faz.net/-gsf-8h7md

Künstliche Intelligenz : Der ist jetzt Koch, und der ist Kellner

  • -Aktualisiert am

Erschwinglich sind künstliche Helfer inzwischen. Dieser humanoide Roboter kostet circa 1.600 Dollar. Bild: interTOPICS /Stringer Xinhua / e

Bald sollen wir Roboter als Chefs haben. Vorgesetze, die nie schlechte Laune haben. Aber Microsofts pöbelnder Chatbot Tay hat uns gezeigt, dass nicht alles intelligent ist, was künstliche Intelligenz genannt wird.

          6 Min.

          Groß war der Jubel der Programmierer, als vor wenigen Wochen die Google-Software Alpha Go den südkoreanischen Spitzenspieler Lee Sedol beim Brettspiel Go besiegt hatte. Der höfliche Asiate klatschte beide Hände auf die Stirn und gratulierte dem Gegner – Google. Hatte sich soeben eine kleine Revolution abgespielt? Go gilt als wegen seiner mannigfaltigen Spielmöglichkeiten – nach vier Zügen ist man schon im Milliardenbereich – als komplexestes Spiel der Welt, als letzte Bastion menschlicher Intelligenz. Und die hat nun eine Maschine geschliffen. Der Computer wandte nicht nur stupide Regeln an wie der von IBM entwickelte Schachcomputer Deep Blue, der 1997 Schachweltmeister Garri Kasparow bezwang, sondern lernte mit Hilfe neuronaler Netzwerke dazu, wie ein Mensch. Der Sieg der Software gegen einen der weltbesten Go-Spieler wurde als ein großer Schritt in der Entwicklung selbstlernender Maschinen gewertet, als Meilenstein der künstlichen Intelligenz (KI).

          Der Siegeszug der KI wird von der Industrie gerne als lineare Entwicklung dargestellt. Nun könnten Roboter bald auch den Posten des Chefs übernehmen. Der japanische Elektronikkonzern Hitachi hat ein KI-System in seinen Logistikzentren entwickelt, das menschlichen Mitarbeitern konkrete Arbeitsaufgaben zuweist und damit zum Chef wird. Ein Computer analysiert die menschlichen Arbeitsabläufe und erteilt auf dieser Grundlage neue Handlungsanweisungen. Statt auf vorprogrammierte Instruktionen wie bei einer Logistiksoftware zurückzugreifen, soll das KI-System von dem „Skript“ abweichen und sich an neue Bedingungen wie Wetter und Nachfrageänderungen anpassen.

          Auch Algorithmen können diskriminieren

          Bislang übernahmen Roboter einfache Tätigkeiten wie Putzen oder Paketepacken. Der Mensch war Koch, die Maschine Kellner. Doch nun könnte das Verhältnis kippen. Nicht mehr der Mensch befehligt die Maschine, sondern die Maschine den Menschen. Das Marktforschungsinstitut Gartner schätzt, dass bis 2018 drei Millionen Arbeiter von einem „Robo-Boss“ beaufsichtigt werden. „Roboterchefs werden zunehmend Entscheidungen treffen, die zuvor nur von menschlichen Managern getroffen werden konnten“, heißt es in dem Bericht. Das Versprechen der Roboter-Chefs ist, dass sie ihre Angestellten vorurteilsfrei führen. Wenn der Arbeiter in allen Aktivitäten messbar wird, könnte man ihn nur anhand seiner Daten bewerten.

          Ist er nicht niedlich? Der äußeren Form nach kommt die künstliche Intelligenz mit dem Kindchen-Schema angerollt.
          Ist er nicht niedlich? Der äußeren Form nach kommt die künstliche Intelligenz mit dem Kindchen-Schema angerollt. : Bild: AFP

          Die Maschine, so die Idee, sieht nicht, welcher Herkunft ein Arbeiter ist, welche Religion oder Ansichten er hat. „Maschinen sind emotionsfrei und behandeln, wenn sie entsprechend programmiert wurden, ihre Mitarbeiter fair und gerecht“, sagt Eric Hilgendorf, Professor für Strafrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Universität Würzburg und Leiter der Forschungsstelle RobotRecht. „Sie haben keine schlechte Laune, die sie an anderen auslassen könnten.“ Es spreche deshalb sogar einiges dafür, Maschinen als Chefs zu haben. Gleichwohl: Auch Algorithmen können diskriminieren. Keine Technik ist wertfrei, weil sie immer vom Menschen programmiert wird. Und der hat nun mal Vorurteile.

          Der Fehler steckt im System

          Microsoft hat vor kurzem einen Chatbot entwickelt, der auf Twitter mit der Welt kommunizieren und durch die Konversationen dazulernen sollte. Die als junge Frau modellierte „Tay“ wurde mit Daten gefüttert, die vom Entwicklerteam „gesäubert und gefiltert“ wurden. Doch schon kurz nachdem Tay im Netz von der Leine gelassen wurde, pöbelte sie, was die Leitung hergab. Denn eine Schar Twitter-Trolle hatte sich einen Spaß daraus gemacht, der künstlichen Intelligenz falsche Fakten beizubringen. Das so Gelernte verrührte Tay zu einem kruden Brei diffamatorischer Aussagen. Innerhalb weniger Stunden wurde das „unschuldige“ Robo-Girl zu einer Rassistin. Das Experiment zeigt, wie künstliche „Intelligenz“ aus dem Ruder laufen kann. Kritiker reagierten darauf mit volkspädagogischem Pathos, man müsste die Roboter erziehen und an die Leine nehmen.

          Dabei ist es nicht damit getan, dem Bot einfach nur moralische Wertvorstellungen wie Respekt und Toleranz einzuprogrammieren. Mit einem algorithmischen Kniff könnte ein Roboter kritische Meinungsäußerungen auf ein kleines Publikum beschränken, ohne eine kritische Masse von Unterstützern zuzulassen. Politik würde zu einer bloßen Simulation. Auf Twitter geistern massenhaft Fake-Accounts und Chatbots, die den Kurznachrichtendienst systematisch mit propagandistischen Beiträgen bombardieren und Stimmungen erzeugen. Es geht hier also nicht nur um einzelne Meinungen, sondern um ein systemisches Problem.

          Nur eine von vielen Schaltstellen

          Der Soziologe Bruno Latour entwickelte ein interessantes Gedankenexperiment: In einem Telefongespräch erzählen sich Hélène und Adam eine Geschichte über London, über Züge, Bahnhöfe, Waterloo und den Besuch der National Gallery – eine Story, die nicht viel anders als Tagträumerei oder eine Novelle ist. Die Geschichte bekommt jedoch eine andere Bedeutung, als sie am Telefon beschließen, einen gemeinsamen Ausflug nach London zu unternehmen. Das Skript wird zur Vorlage für eine künftige Aktivität, in der sie die ihnen zugeteilten Rollen zu erfüllen haben. „Hélène und Adam aus Fleisch und Blut“, schreibt Latour, „sind nun die delegierten Charaktere ihrer eigenen Story, aber, und das ist der Punkt, die Geschichte ist nicht mehr ihre.“ Die imaginierten Akteure in dem Plot können sich in dem Kosmos, den sie vor ein paar Minuten noch ersonnen hatten, verändern.

          Latour dekonstruiert den Vorgang und fädelt die Handelnden in seine Akteur-Netzwerk-Theorie ein. Wer geht nach London? Die Hélène vom Telefon? Der Hélène in der Story? Oder die delegierte Hélène, die eine bestimmte Rolle ausfüllen soll? Nach Latour sind es viele Hélènes, die nach London gehen. Was soll uns dieses Gedankenexperiment sagen? Latours These ist, dass sich der Mensch zwar noch nicht in Chips verwandelt hat, aber kein subjektives, intentionales Wesen ist, sondern eine von vielen Schaltstellen in einem riesigen neuronalen Netzwerk. Intelligenz, schreibt Latour, „ist eine geteilte Fähigkeit, Geschichten, Handlungsroutinen und Subroutinen zu verknüpfen und sie zu vielen Haltern eines Neuronennetzes zu verspinnen“. Übertragen auf die Robo-Bosse oder Chatbots bedeutet das, dass, sobald vom Skript abgewichen wird, ein neuer Handelnder auf den Plan tritt, der das Geschehen mitbestimmt.

          Mehr Menschlichkeit

          Latours zentrales Argument ist, dass man in diesem Interaktionsgeflecht gar nicht mehr weiß, wer eigentlich Akteur, wer Subjekt und was Objekt ist. Wenn der Chatbot Tay rassistischen Müll von sich gibt – wem ist dieser Sprechakt, der er ja zweifellos ist, zuzurechnen? Dem Entwickler? Oder dem Bot selbst? Wenn Algo-Trader auf Basis algorithmisch generierter Finanzberichte, wie sie Associated Press produziert, Transaktionen am Terminmarkt vollziehen – wer handelt dann? In letzter Konsequenz hieße das, dass man auch Maschinen Subjektivität konzedieren und sie als Akteure in einem sozialen System anerkennen müsste. Soll man Algorithmen also zu Debatten zulassen?

          Wirkt selbstbewusst, hat aber kein Selbstbewusstsein: Ein IBM-Roboter tritt auf der Cebit in Hannover auf.
          Wirkt selbstbewusst, hat aber kein Selbstbewusstsein: Ein IBM-Roboter tritt auf der Cebit in Hannover auf. : Bild: AFP

          Apple argumentierte im Streit mit dem FBI um die Entschlüsselung eines iPhones, seine Codes fallen unter die Meinungsfreiheit nach dem First Amendment. Man möchte sich aber besser nicht vorstellen, was passiert, wenn in der Kommunikation im Internet der Dinge jeder Code als Meinung angesehen wird. Vielleicht war der Twitterbot Ray auch deshalb so verstörend, weil er so verblüffend menschenähnlich pöbelte und diffamierte. Die Annahme, die menschliche Dummheit werde ein technologiefreier Raum bleiben, ist durch das Tay-Experiment eindrucksvoll widerlegt. Das Wissenschaftsmagazin „New Scientist“ erhob jüngst die Forderung, Fehler in Maschinen einzuprogrammieren, um sie menschlicher zu machen. Bloß: Ab wann ist ein Roboter ein Individuum?

          Nur der Schein von Intelligenz

          Der amerikanische Philosoph John R. Searle entwarf vor vielen Jahren sein berühmtes Gedankenexperiment vom chinesischen Zimmer: Eine Person sitzt in einem geschlossenen Raum. Sie kann weder Chinesisch sprechen noch die Schriftzeichen entziffern. In dem Raum befinden sich ein unbegrenzter Vorrat chinesischer Zeichen sowie eine Anleitung, wie diese zu legen sind. Durch einen Schlitz in der Wand erhält die Person Geschichten auf Chinesisch mit Fragen. Vor dem Raum steht ein chinesischer Muttersprachler, der die Antworten durch die Klappe entgegennimmt. Nach einiger Zeit legte die Person schnell und zuverlässig die korrekten Schriftzeichen in den Kasten.

          Was muss sich der Außenstehende dabei denken? Er kommt zu dem Schluss, dass in dem Raum eine Person sitzt, die ebenfalls Chinesisch spricht. Aber hat es der Außenstehende mit Intelligenz zu tun? Der Mathematiker Alan Turing hätte gesagt, ja. Searle sagt, nein, so zu tun, als ob, genüge nicht. Das bloße Sortieren und Arrangieren der Zeichen reiche für Intelligenz nicht aus. Denn die erfordere Intentionalität und Bewusstsein. Searle wollte anhand dieses Gedankenexperiments beweisen, dass ein Programm, das den Turing-Test besteht, nicht unbedingt intelligent ist, es erscheint nur so. Computer spielen kein Schach, und sie denken auch nicht.

          Unklar gewordene Rollenverteilung

          Die Entwicklung der künstlichen Intelligenz ist keine Einbahnstraße. Vor kurzem wurde bekannt, dass ein Roboter-Anästhesist des Gesundheitskonzerns Johnson&Johnson, der im Mai 2015 erstmals eingesetzt wurde und die Behandlungskosten reduzieren sollte, vom Markt genommen wurde. „Erste Roboter verlieren Jobs aufgrund von Menschen“, schrieb die deutsche Ausgabe des Technikmagazins „Wired“. Die Mensch-Maschine-Dialektik erhält damit eine ganz andere Wendung, ein neues Narrativ. Es ist eine umgekehrte Erzählung: Der Mensch nimmt Maschinen den Arbeitsplatz weg. Das Interessante daran ist, dass man Robotern doch Subjektivität einräumt, indem man ihnen den Jobverlust ankreidet.

          Der Rechtswissenschaftler Brett Frischmann und der Philosoph Evan Selinger stellten in einem Beitrag für den „Guardian“ die These auf, dass der Turing-Test heute anders gedacht werden müsse: Die Frage sei nicht, ob Maschinen irgendwann menschenähnlich werden, sondern, ob der Mensch maschinenähnlich und programmierbar werden könne. Menschen in Call-Centern arbeiten heute bestimmte Skripts ab und operieren im Ergebnis wie ein Roboter. Der Außenstehende weiß wie der Muttersprachler beim chinesischen Zimmer nicht, ob er es mit einem maschinenähnlichen Menschen oder einer menschenähnlichen Maschine zu tun hat. Das ist die eigentliche Pointe der Entwicklung.

          Nach Bruno Latour ist die Welt voller Hybride, Quasi-Subjekte, die nicht nur konstruiert sind, sondern durch Vermittlung und Delegation selbst konstruieren und nicht beherrschbar sind. Latour erkennt in seinem Werk „Das Parlament der Dinge: Für eine Ökologie der Dinge“ (2001) Maschinen und Tiere als Akteure in einem sozialen System an und stellt damit die Außengrenze der einen Menschheit in Frage. Beim Duell Mensch gegen Maschine sind die Rollen gar nicht mehr klar verteilt.

          Weitere Themen

          Nomadland räumt viermal ab Video-Seite öffnen

          Bafta-Awards : Nomadland räumt viermal ab

          Mit dem Triumph bei den Bafta-Awards hat der Film „Nomadland" seine Favoritenrolle bei den in zwei Wochen stattfindenden Oscars weiter gefestigt.

          Eigeninitiative wird bestraft

          Künstler in der Pandemie : Eigeninitiative wird bestraft

          Viele Künstlerinnen und Künstler verlieren wegen der Pandemie ihre Krankenversicherung in der Künstlersozialkasse. Der Deutsche Kulturrat sieht den Bund in der Pflicht. Die Lösung des Problems liege auf der Hand.

          Topmeldungen

          Der Angeklagte Abdullah A. am Montag im Gerichtssaal in Dresden.

          Angriff auf schwules Paar : „Er empfand das als Sünde“

          Vor dem Oberlandesgericht muss sich ein Syrer verantworten. Er soll im Oktober zwei Touristen angegriffen haben, die sich an den Händen hielten. Der Angeklagte macht keine Angaben – dafür berichtet der Gutachter.
          Der Herzog von Edinburgh trifft um 1960 mit seinem Sohn Charles zum Verwandtenbesuch in Deutschland ein.

          Erinnerung an ein Treffen : „Ich bin der Philip!“

          Unser Autor war noch Praktikant, als er einen Tipp bekam: Prinz Philip würde zum Verwandtenbesuch nach Deutschland reisen. Also fuhr er zum Flughafen – und plauderte mit dem Royal und seinem Sohn Charles im Shuttlebus.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.