Wie künstliche Systeme lernen sollten
- -Aktualisiert am
Vom Gehirn ist noch einiges zu lernen: Christopher Summerfield möchte KI-Entwicklung und Neurowissenschaften enger zusammenführen.
Die Fotografie zeigt Chicken Nuggets, die so angeordnet sind, dass sich die Umrisse der Kontinente auf einer Weltkarte ergeben, und darüber der Satz: „Wie schön die Erde doch aus dem All aussehen kann!“ Für diese Pointe sorgte GPT-4, das neueste Sprachmodell von OpenAI, das noch größer als seine Vorgänger ist, mit Texten und Bildern umgehen und sogar Witze erklären kann. Der Prompt mit der Weltkarte sei witzig, so ist es in der Dokumentation zu GPT-4 zu lesen, weil es sich um eine „unerwartete Juxtaposition von Text und Bild“ handle.
Die heutigen KI-Systeme sind zwar klug im Labor, aber nicht auf der Straße, schreibt Christopher Summerfield, sie kommen mit wohldefinierten Problemen zurecht, nicht aber mit der Komplexität der Welt, wie sie nun einmal ist. Sein neues Buch ist vor GPT-4 erschienen, dennoch dürfte er die These aufrechterhalten: Den Fortschritten der Chatbots zum Trotz gibt es bislang keine wirklich überzeugende allgemeine Künstliche Intelligenz. Das zeigen nach wie vor die seltsamen Fehler, die auch den großen Sprachmodellen unterlaufen.
Jetzt 30 Tage kostenfrei testen 2,95 € / Woche
Jetzt kostenfrei Zugang abonnieren?