Open AI warnt vor GPT-2 : Supertrolle am Start
- -Aktualisiert am
Großes verkündet er gern: Elon Musk, zusammen mit Sam Altman Gründer der Forschungsorganisation Open AI Bild: Reuters
Zwei, drei Zeilen genügen, schon generiert GPT-2 Geschichten über jüngst entdeckte Einhörner, gestohlenes Nuklearmaterial: Die Forscher von Open AI warnen vor ihrer eigenen Entwicklung.
Neugierig machen gehört zum Geschäftsmodell der Digitalwirtschaft im Allgemeinen und von Silicon Valley im Besonderen. Wir haben da eine Künstliche Intelligenz gebaut, die ist so gefährlich, dass wir es nicht verantworten können, euch mehr als ein kleines Stückchen davon zu geben: So kündigte die von Elon Musk und Sam Altman gegründete Forschungsorganisation Open AI vor wenigen Tagen GPT-2 an: ein Sprachmodell, basierend auf einem künstlichen neuronalen Netzwerk, dessen 1,5 Milliarden Parameter darauf trainiert wurden, Texte zu ergänzen. Zwei, drei Zeilen genügen, schon generiert GPT-2 Geschichten über jüngst entdeckte Einhörner, gestohlenes Nuklearmaterial oder über sich selbst.
Dass Interessierte versuchen könnten, ein solches System zu verwenden, um „Deep Fakes“ – Falschmeldungen – zu generieren, Geschichten, Produktbewertungen, Rezensionen, üble Nachreden, und all das in Massen, liegt auf der Hand. Daher, so schreiben die Open-AI-Forscher in einem Blog-Beitrag, habe man erst einmal lediglich eine Miniversion des Programms veröffentlicht – womit sie sich eine enorme Aufmerksamkeit gesichert haben. „Generell schafft es das Modell mit weniger spezifizierten Texten als bisherige Modelle, eine größere Anzahl an Aufgaben der Texterkennung und Produktion zu bearbeiten“, sagt die Münsteraner Kommunikationspsychologin Lena Frischlich.
Das Open AI-System beruht offenbar keineswegs auf revolutionärer neuer Technik, sondern vor allem auf noch mehr Rechenpower und noch mehr Daten. GPT-2 zielt, wie schon sein Vorgängermodell, auf Allgemeinheit, es soll für verschiedene Aufgaben eingesetzt werden können. Die Forscher testeten es dazu auch im Übersetzen, ließen es Fragen zu Texten beantworten, Texte zusammenfassen und die Bedeutung mehrdeutiger Ausdrücke bestimmen. Die Ergebnisse waren nicht brillant, aber es funktionierte „zero-shot“, das heißt, beim ersten Versuch, ohne spezifische Anpassungen, so die Forscher um Open-AI-Chefwissenschaftler Ilya Sutskever. „Die Resultate zeigen, dass statistische Sprachmodelle – Wahrscheinlichkeitsmodelle, die beschreiben, wie wahrscheinlich ein bestimmter Satz in einem Kontext ist – mit großen Datenmengen recht universell einsetzbar sind“, sagt Kristian Kersting, Gruppenleiter maschinelles Lernen am Institut für Informatik der Technischen Universität Darmstadt. „Allgemein wird oft berichtet, dass man einfach nur große Datenmengen für Deep Learning braucht. Genau das aber ist mathematisch bisher nicht bewiesen. Deshalb ist das Ergebnis der vorliegenden Studie interessant.“
Das große Rätsel der Künstlichen Intelligenz bleibt
GPT-2 steht im Kontext des viel größeren Ziels, das sich Open AI gesetzt hat: die künstliche allgemeine Intelligenz. Noch vor ein paar Jahren nahm kein seriöser Forscher diesen Begriff in den Mund, jetzt befeuern die wachsenden Leistungen der lernenden Systeme die Phantasie: ein künstliches intelligentes System, das nicht nur Spezialist für dieses oder jenes ist, sondern so vielseitig wie der Mensch, nur viel schneller. Bislang zeigen solche Systeme, einschließlich GPT-2, noch recht deutlich, dass sie das Problem, Inhalte zu verstehen, mit ihren statistischen Analysen eher überdecken, als es zu lösen. Denn was sich auf den ersten Blick wie ein sinnvoller Text liest, offenbart auf den zweiten deutliche Schwächen: Da ist dann von Einhörnern mit vier Hörnern die Rede, die die Forscher aus der Luft sahen, wobei sie so nah dran waren, dass sie die Hörner hätten berühren können.
Ohne menschliche Nachbearbeitung sind diese Texte (noch) nicht zu gebrauchen. Zudem funktionieren diese Lernverfahren nur bei Themen, zu denen es genug Trainingsdaten gibt. Je ungewöhnlicher und spezieller die Themen, desto schlechter werden die Texte. Das gilt auch für Fakes.
Ob eine künstliche allgemeine Intelligenz überhaupt mit Statistik und immer mehr Daten zu erreichen ist, bleibt in der Fachwelt bestenfalls umstritten. Viele Experten streiten es kategorisch ab. „Allgemein ist Deep Learning noch viel zu datenhungrig. Im Gegensatz zum Menschen braucht es einfach Millionen und Abermillionen von Beispielen, um lernen zu können. Der Mensch dagegen lernt anhand weniger Beispiele. Wir können denken und Schlussfolgerungen aus wenigen Beobachtungen ziehen. Wie das algorithmisch funktioniert, ist weiterhin das große Rätsel der Künstlichen Intelligenz und der Kognitionswissenschaften“, so Kersting. Open AI, an dem auch schillernde Existenzgründer wie Paypal-Gründer Peter Thiel oder LinkedIn-Mitgründer Reid Hoffman beteiligt sind, hat sich jedenfalls diesem Weg verschrieben – und braucht nun noch mehr Spezialisten. Einen ausführlichen Blog-Beitrag, in dem sie vor den Gefahren der eigenen Arbeit warnen, schließen die Open-AI-Entwickler mit dem vielsagenden Hinweis: Neugierig geworden? We’re hiring!