Gefährlich menschlich
- -Aktualisiert am
Heißt menschliches Verhalten auch menschliches Denken? Im Film „Ex-Machina“ ist die Grenze zwischen Mensch und KI unscharf. Bild: AKG
Große Sprachmodelle wie etwa GPT-4 erwerben zunehmend Fähigkeiten, die sie immer intelligenter erscheinen lassen. Das ist gewollt, kann aber auch Missverständnisse provozieren.
Wenn es sich eine zusätzliche Fähigkeit wünschen dürfte, wäre es, Bilder und Videos ansehen zu können – das hatte Microsofts Chatbot Sydney im Februar dem „New York Times“-Journalisten Kevin Roose in einem aufsehenerregenden Chat-Gespräch offenbart. Und auch wenn solch eine aus der statistischen Analyse gigantischer Mengen von Textdaten resultierende Aussage nicht als wirklicher Wunsch einer Künstlichen Intelligenz missverstanden werden durfte: Sie zeigte zumindest, dass dies ein naheliegender nächster Schritt zur Verbesserung der großen Sprachmodelle sein würde.
Lange musste man auf diesen Schritt tatsächlich nicht warten. GPT-4, das neuste, am vergangenen Dienstag vorgestellte Exemplar dieser selbstlernenden Modelle des amerikanischen Unternehmens Open AI, hat diese Fähigkeit nun erlangt. Es ist damit multimodal: Anders als sein dem Bot ChatGPT zugrunde liegender Vorgänger GPT-3 kann es sowohl Texte als auch Bilder verarbeiten. „Das bringt uns einen Schritt näher in die Richtung von etwas, das wir als eine schwache Form von Verstehen bezeichnen können“, sagte Nello Cristianini, Professor für Künstliche Intelligenz an der Universität Bath, gegenüber dem britischen Science Media Center. Solches primitive Verstehen würde etwa umfassen, die Geräusche vorherzusagen, die dem Video eines springenden Balls entsprechen.
Jetzt 30 Tage kostenfrei testen 2,95 € / Woche
Jetzt kostenfrei Zugang abonnieren?