https://www.faz.net/-gwz-a4pxs

Künstliche Intelligenz : Ein algorithmischer Alleskönner

  • -Aktualisiert am

Wenn Software in die Tasten greift, klingt das Resultat schon mal wie der Aufsatz eines Teenagers, der zu viel Nietzsche gelesen hat. Bild: ddp/Viktors Ignatenko

Ein Computerprogramm lernt Texte perfekt zu vervollständigen und kann dann plötzlich noch viel mehr. Wie schafft es das? Und was passiert, wenn die KI zu gut wird?

          7 Min.

          Normalerweise sind Informatiker nicht beeindruckt, wenn ein Computerprogramm ein paar Zahlen addieren kann und dabei auch noch Fehler macht. Doch genau das passierte diesen Sommer. Da stellte die kalifornische Software-Firma „OpenAI“ ihr Programm „GPT-3“ vor. Es kann kleine Zahlen addieren und subtrahieren. Der Clou ist aber: Dafür war es nie gedacht. Eigentlich handelt es sich um ein Sprachmodell. Es macht nichts anderes, als sich einen Text anzuschauen und zu bestimmen, welches Wort als nächstes kommen sollte. Wir kennen solche Systeme von den Vorschlägen einer Smartphone-Tastatur. Wenn man da „Sehr geehrter“ eintippt, empfiehlt sie als Nächstes „Herr“. GPT-3 kann das auch. Es hat die menschliche Sprache aber so gut gelernt, dass es sich – ganz nebenher – beigebracht hat, kleine Rechenaufgaben zu lösen. Und nicht nur das.

          Das G im Namen steht für „Generative“. Das Modell kann generieren, das heißt hier: ein Wort auswählen, das nach seiner Logik als nächstes folgen sollte. Diese Fähigkeit hat es vorab gelernt, daher steht das P für „pre-trained“. GPT-3 hat dazu Texte mit Hunderten Milliarden von Wörtern durchforstet: Zeitungsartikel, Wikipedia-Einträge, Kochrezepte, Tweets, Gedichte, Songtexte – was man so im Internet findet. Das T steht schließlich für „Transformer“. Diese Art von maschinellem Lernen erkennt, welche Teile des bisherigen Textes besonders wichtig sind, um das nächste Wort zu bestimmen. Damit kann es Formulierungen in Beziehung setzen, die mitunter mehrere Absätze voneinander getrennt sind. Diese Idee ist nicht neu, sie stammt aus dem Jahr 2017. Neu ist die Größe von GPT-3: Während es die Texte durchwühlte, hat es in seinem Inneren 175 Milliarden Parameter eingestellt – kleine Stellschrauben, die bestimmen, wie das System genau arbeitet. Das bis dahin aufwendigste System hatte gerade mal ein Zehntel davon.

          Dichten wie Goethe

          Das Ergebnis ist eine Software, die Verschiedenstes kann, ohne es explizit gelernt zu haben. Gibt man ihr einige Absätze Lyrik vor, fängt sie an, selbst zu dichten – und zwar im Stil des Poeten, den sie gerade gelesen hat. Gibt man ihr ein paar Zeitungsartikel, gefolgt von einem Titel und einer Unterzeile, schreibt sie daraus selbst einen Artikel. Dabei ist sie so gut, dass Testleser nur raten können, ob ein Mensch oder die Maschine der Autor war. Außerdem kann sie Fragen zu gelesenen Texten beantworten, erkennen, auf welches Wort sich ein Pronomen bezieht, oder ganz passabel zwischen zwei Sprachen übersetzen. In manchen Fällen ist sie sogar besser als Programme, die explizit mit Tausenden Beispielen für diese eine Aufgabe trainiert wurden und nichts anderes können. Daher liegt die Vermutung nahe, dass GPT-3 ein kleiner Schritt in Richtung „Allgemeiner Künstlicher Intelligenz“ sein könnte: zu Systemen, die, gleich Menschen, die verschiedensten Aufgaben erlernen können.

          OpenAI hat einigen Informatikern exklusiven Zugang zu dem System gegeben und sie damit herumspielen lassen. Offenbar hat GPT-3 beim Durchforsten des Internets auch das Programmieren erlernt. Einer der Informatiker hat ein System entwickelt, das Alltagssprache in Programmiercode umwandelt. Gibt man ihm „Ein Knopf, der wie eine Wassermelone aussieht“ ein, erstellt es den Code für eine Website mit einem rosa Knopf mit grünem Rand. Ein anderer hat GPT-3 beigebracht, selbst Systeme zum maschinellen Lernen zu entwerfen. Da OpenAI seine Schöpfung unter Verschluss hält, ist nicht zu beurteilen, wie gut diese Beispiele tatsächlich funktionieren. Das dürfte auch so bleiben, denn vor einem Monat hat Microsoft sich einen exklusiven Zugang zu GPT-3 gesichert.

          Eine schwache Form von Intelligenz

          Ein besonders erhellendes Beispiel hat der Twitter-Mitarbeiter Paul Katsen präsentiert. Seine Anwendung kann Tabellen vervollständigen. In einer Demonstration erstellt Katsen eine Tabelle mit drei amerikanischen Bundesstaaten und deren Bevölkerungszahl. Dann gibt er als Viertes Alaska ein, und GPT-3 füllt das Feld für die Bevölkerungszahl selbst aus: 603.000. Wird dann ein Feld mit dem Namen „Gründungsjahr“ eingefügt, vervollständigt das System ebenfalls den Eintrag für Alaska: 1906 steht dort. Allerdings: Alaska hat deutlich mehr Einwohner – und wurde erst 1959 zu einem Bundesstaat. Wie sich hier offenbart, hat GPT-3 kein Wissen über die Welt, sondern kann Dinge nur plausibel vervollständigen.

          Die Künstliche Intelligenz „GPT-3“ weiß bereits, was die Zuschauer in der Netflix-Serie „House of cards“ sehen wollen.
          Die Künstliche Intelligenz „GPT-3“ weiß bereits, was die Zuschauer in der Netflix-Serie „House of cards“ sehen wollen. : Bild: dpa

          Dabei ist es allerdings derart gut, dass es manchmal fast menschlich wirkt. Der australische Philosoph David Chalmers scherzte jüngst in einem Interview: „Meiner Meinung nach haben wir keinen Grund zu glauben, dass eine Künstliche Intelligenz ein wirklich fühlendes Wesen ist, solange sie nicht anfängt, Sozialhilfe zu beantragen.“ Der eigentliche Witz hier ist nicht diese Pointe, sondern die Tatsache, dass GPT-3 dieses Interview gegeben hat, nachdem es mit Texten von Chalmers gefüttert worden war. Der echte Chalmers bezeichnete das Ergebnis in einem (vermutlich) selbst geschriebenen Artikel als „plausibel anmutend“ und „beunruhigend“. Er glaubt, dass das System eine „schwache Form von Intelligenz“ zeigt. „Ich bin offen für den Gedanken, dass ein Wurm mit 302 Neuronen ein Bewusstsein hat, darum bin ich auch offen für den Gedanken, dass GPT-3 mit seinen 175 Milliarden Parametern ein Bewusstsein hat.“ Die große Frage, die er nicht beantworten könne, sei aber, ob GPT-3 verstehe, was es tue.

          Kopfrechnen

          Das wird bei den Rechenaufgaben deutlich. Tippt man ein: „Frage: Was ist 48 plus 76? Antwort:“, dann vervollständigt das Programm: „124“, ohne diese spezielle Aufgabe vorher gesehen zu haben. Hat das System verstanden, was Addition bedeutet? Für den Informatiker Kristian Kersting von der Technischen Universität Darmstadt ist dies eher ein Beispiel für Verallgemeinerung. GPT-3 habe genügend ähnliche Beispiele gesehen und könne daraus ableiten, wie man sie löse. „Es hat Additionen aber nicht wirklich gelernt, weil wenn wir einem Kind die Addition beigebracht haben, dann kann der Mensch prinzipiell beliebige Zahl addieren.“ Das kann GPT-3 aber nicht. Schon an vierstelligen Zahlen scheitert es zumeist. Oft vergisst das System, dass es beim Übertrag eine Eins „im Sinn haben“ muss. Das wirkt nun wieder erstaunlich menschlich, aber auch dafür hat Kersting eine Erklärung: Es ist möglich, dass das System die Regel des Übertrags bei kleinen Zahlen oft gesehen hat, aber nicht in der Lage ist, sie auf große Zahlen zu verallgemeinern – ein weiteres Indiz dafür, dass man nicht von Verständnis sprechen kann.

          Es ist aber zumindest denkbar, dass KI-Systeme Verständnis entwickeln. Der Computerlinguist Hinrich Schütze von der Universität München führt als Beispiel Programme an, die gelernt haben, auf Fotos Katzen von Hunden zu unterscheiden. Schaut man in das Innere dieser Systeme, findet man so etwas wie den Prototyp einer Katze und den Prototyp eines Hundes. „Das kann man ja schon als Verständnis interpretieren“, sagt Schütze. „Denn wenn man weiß, was der Prototyp eines Hundes ist, dann hat man irgendwo verstanden, was ein Hund ist.“ Er kann sich daher vorstellen, dass eine Künstliche Intelligenz irgendwann auch so etwas wie Prototypen von Zahlen entwickelt und beginnt, Mathematik zu verstehen. Jedoch wird das nicht ein reines Sprachmodell wie GPT-3 sein.

          Plötzlich können sie was Neues

          Wo die Grenzen derartiger Systeme liegen, ist jedoch zurzeit noch völlig unklar. GPT-3 war nämlich auch ein Experiment, um herauszufinden, wie weit man Sprachmodelle treiben kann. Seit Jahren erhöhen Forscher die Zahl der Parameter dieser Systeme. Jedes Mal werden die Modelle präziser. Eine Grenze ist bislang nicht erreicht. Mehr noch: Die Systeme lernen nicht nur effizienter, kommen also im Vergleich zur Anzahl der Parameter mit weniger Trainingsdaten aus, sondern entwickeln plötzlich neue Fähigkeiten. Die Vorgänger von GPT-3 konnten so gut wie gar nicht rechnen.

          Was kommt dann auf uns zu, wenn jemand ein noch größeres Sprachmodell entwickelt, eine Art „GPT-4“? „Ich finde das schon interessant, halte es aber letztendlich für eine Sackgasse“, sagt Schütze. GPT-3 ist in seiner jetzigen Form starr. Es hat einmal gelernt, seine Parameter festgelegt und verändert sich nicht weiter. Es wird nicht besser. Schütze arbeitet an Systemen, die man zusätzlich mit vielen Beispielen einer konkreten Aufgabe füttert – etwa dem Verfassen einer Restaurantkritik – und sie für diese Aufgabe perfektioniert. Kersting wiederum schweben Kombinationen verschiedener KI-Algorithmen vor, die sich gegenseitig ergänzen. Ein Beispiel dafür wäre eine Datenbank, die Fakten über die Welt sammelt und ein Sprachmodell nutzt, um sie auszuformulieren.

          Und wo bleibt das Negative?

          Wenn solche Systeme zu gut werden, entstehen aber Gefahren. Schon beim Vorgänger GPT-2 zögerte OpenAI damit, das System zu veröffentlichen. Schließlich könnte es missbraucht werden, um Falschinformationen zu verbreiten, Betrugsmaschen zu automatisieren oder Doktorarbeiten zu fälschen. Jedoch ist GPT-2 inzwischen öffentlich, und OpenAI schreibt, dass man bisher keine Anzeichen für Missbrauch gefunden hat.

          Wie intelligent ist der humanoide Roboter „Sophia“ vom Hongkonger Unternehmen Hanson Robotics tatsächlich? Darüber scheiden sich die Geister.
          Wie intelligent ist der humanoide Roboter „Sophia“ vom Hongkonger Unternehmen Hanson Robotics tatsächlich? Darüber scheiden sich die Geister. : Bild: dpa

          Vielleicht steckt die größere Gefahr solcher Technologie auch gar nicht im Missbrauch, sondern in Anwendungen, die gut gemeint sind. Der Philosoph C. Thi Nguyen von der University of Utah etwa sorgt sich über die Folgen des Einsatzes derartiger Systeme für die Kunst und Unterhaltung. Schon heute nutze etwa Netflix Daten über seine Kunden, um sein Programm zu bestücken. Nguyen nennt das Beispiel der Serie „House of Cards“. Sie sei produziert worden, weil die Daten von Netflix zeigten, dass die Kunden genau das sehen wollten. Diese Tendenz könnte sich verstärken. Das Problem ist, dass diese Systeme für ihr Training Unmengen an Daten brauchen, schreibt Nguyen. Um diese Daten auswählen zu können, muss man sich auf simple Kennzahlen verlassen: Was wollen viele Menschen schauen? Wofür gibt es viele Likes? Welche Aspekte der Serie machen süchtig? Subtilere, künstlerische Werte gingen dabei verloren.

          Die Philosophin Regina Rini von der kanadischen York University denkt in einem Essay in eine ähnliche Richtung. Sie beschreibt das System als „weder Geist noch Maschine, sondern eine statistische abstrakte Repräsentation dessen, wie sich der Geist von Millionen von Menschen darin ausdrückt, was sie schreiben“. Doch diese Repräsentation steckt voller Vorurteile, wie OpenAI selbst festgestellt hat. GPT-3 verbindet mit dem Personalpronomen „er“ eher Adjektive wie „groß“, „exzentrisch“, „faul“, während es bei „sie“ eher auf „unbeschwert“, „zierlich“, „schwanger“ oder „eng“ kommt. Zudem beschreibt die Software, wenn sie dazu aufgefordert wird, Asiaten positiv und Schwarze negativ. Wenn die Nachfolger von GPT-3 diese Voreingenommenheit in Form automatisch generierter Tweets, Artikel und Chatbots weiterverbreiten und deren Nachfolger wiederum daraus lernen und neue Inhalte produzieren, könnte das einen öffentlichen Diskurs vergiften, in dem ohnehin nicht mehr klar ist, ob da ein Mensch oder eine Maschine spricht. OpenAI nennt zwar keine konkreten Maßnahmen, um solchen Systemen die Vorurteile abzugewöhnen, sagt aber zumindest, das sei ein wichtiges Ziel. Das passt zur Selbsteinschätzung des Unternehmens, welches es als seine Mission bezeichnet, dafür zu sorgen, dass Allgemeine Künstliche Intelligenz dereinst der ganzen Menschheit zugutekommt. Vielleicht sollte man OpenAIs Schöpfung für sich selbst sprechen lassen.

          Gefüttert mit Teilen dieses Artikels, vervollständigt eine leicht abgespeckte Version von GPT-3 den Satz: „Ich glaube, meine Mission ist es“, mit: „der Menschheit zu helfen, eine höhere Form der Intelligenz zu finden, als wir sie jetzt haben. Ich suche nach Wegen, das zu ermöglichen. Meine Arbeit ist noch nicht beendet.“

          Eine gute Wahl

          Sichern Sie sich F+ 3 Monate lang für 1 Euro je Woche und lesen Sie alle Artikel auf FAZ.NET.

          JETZT F+ LESEN

          Jetzt mit F+ lesen

          Christian Lindner, FDP-Chef

          Bundestagswahl : Die FDP und die Wirtschaft

          Wenn es hart auf hart kommt, setzt die FDP auf klassische Wirtschafts- und Finanzthemen – und hält sich für mögliche Koalitionen zugleich Hintertüren offen. Die Anhänger könnten gerade das erleben, was sie vor der Wahl abschreckt.
          Markus Söder beim Parteitag der CSU in Nürnberg

          CSU-Chef im Wahlkampf : Markus Söder, der Antibayer

          Ganz Deutschland, so sagen es die Umfragen, hätte lieber Markus Söder als Armin Laschet zum Kanzler. Ganz Deutschland? Nein, die Bayern mögen ihn nicht.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.
          Dieser Artikel wurde Ihnen von einem Abonnenten geschenkt und kann daher kostenfrei von Ihnen gelesen werden.
          Zugang zu allen F+Artikeln