„Wichtig wäre ein europäisches Sprachmodell“
- -Aktualisiert am
Chatbots wie ChatGPT erzeugen im Nu automatisiert Texte, wobei sie Wahrheit nicht von Unwahrheit unterscheiden können. Bild: dpa
Sprachsysteme wie ChatGPT bergen das Risiko, dass Falsches als Wahrheit gilt, warnt die KI-Expertin Ute Schmid. Sie verlangt von den Herstellern Transparenz.
Die Sprach-Systeme haben das Potential, unsere Gesellschaft stark zu verändern. Arbeiten die Hersteller angesichts des disruptiven Charakters der Software transparent genug?
OpenAI verspricht ja schon mit dem Namen, offen zu arbeiten. Ich glaube nicht, dass generell jeder Code offengelegt werden muss. Aber bei diesen fast schon kritischen Anwendungen wäre es meiner Meinung nach angebracht. Sehr wichtig wäre, dass wir schleunigst ein europäisches Sprachmodell aufbauen. Auch wegen der Frage der Filterung: In den USA wird das kleinste bisschen Sex herausgefiltert, Gewalt ist nicht so schlimm. Wenn wir das Sprachmodell von OpenAI nutzen, übernehmen wir dessen Standards, wir können es ja nicht selber weiter trainieren. Dafür braucht man den Zugriff aufs Modell und man muss sich selber ein Sprachmodell aufbauen. China entwickelt ja auch eigene, die angeblich noch viel größer sind.
Jetzt 30 Tage kostenfrei testen 2,95 € / Woche
Jetzt kostenfrei Zugang abonnieren?