Die AfD macht Stimmung mit Fotos, die keine sind
- -Aktualisiert am
Der AfD-Abgeordnete Kleinwächter sagt, er habe dieses Bild generiert, indem er als Stichwort „arab migrants in Berlin“ eingegeben habe. Bild: norbert.kleinwaechter/Instagram
Bundestagsabgeordnete der AfD rechtfertigen, warum sie Bilder nutzen, die täuschend echt aussehen, aber künstlich erstellt sind. Und sie wollen es künftig häufiger tun.
Die Bilder sind täuschend echt: ein blondes Mädchen mit Blutspritzern im Gesicht, ein brüllender Klimaaktivist auf der Straße, eine Gruppe Migranten mit wutverzerrten Mienen. Bundestagsabgeordnete der AfD haben diese Fotos in den vergangenen Wochen gepostet. Bloß existieren die Menschen darauf gar nicht. Ein Bildgenerator hat sie erzeugt, eine Künstliche Intelligenz, die darauf spezialisiert ist, die reale Welt täuschend ähnlich abzubilden. Oder eben auch ganz anders.
Wie viele dieser Bilder die AfD schon in Umlauf gebracht hat, lässt sich schwer beziffern. Denn nur in wenigen Fällen sind sie überhaupt gekennzeichnet – und wenn, dann in winziger Schrift, die den Namen des Bildgenerators nennt, „Midjourney“. Manchmal steht da auch bloß „Symbolbild“, oft aber schlicht gar nichts. Die AfD teilt auf die Frage, in welchem Umfang sie solche Bilder einsetze, einsilbig mit: „Wir nutzen freie Bilddatenbanken, wir überprüfen nicht, ob KI-Bilder darin enthalten sind. Es handelt sich zudem ausschließlich um Symbolbilder.“ Deutlicher werden da Abgeordnete der Partei, die offen zugeben, solche Bilder zu erstellen und – wie etwa der stellvertretende Fraktionsvorsitzende der AfD, Norbert Kleinwächter – zugeben, dass damit „Stereotype bedient werden“. Er sei „sehr, sehr dankbar“ für die neue Technologie.
Jetzt 30 Tage kostenfrei testen 2,95 € / Woche
Jetzt kostenfrei Zugang abonnieren?