https://www.faz.net/-gqe-96i34

Künstliche Intelligenz : Jetzt also „Fake Porn“

  • Aktualisiert am

Sieht täuschend echt aus: Der Kopf von Schauspielerin Daisy Ridley (Star Wars) auf einem fremden Körper. Bild: Jiffier Gifs

Spielen die Hollywoodstars Scarlett Johansson und Daisy Ridley in Porno-Filmen mit? Keineswegs. Doch mit digitalen Manipulationen wurden ihre Gesichter auf fremde nackte Körper in entsprechenden Streifen montiert. Das Ergebnis wirkt täuschend echt.

          Die Fortschritte im Bereich der Künstlichen Intelligenz machen sich in immer mehr Bereichen bemerkbar. Im vergangenen Sommer sorgten Forscher der University of Washington für Aufsehen, als sie ein manipuliertes Video des früheren amerikanischen Präsidenten Barack Obama präsentierten, in dem das Staatsoberhaupt zwar mit seiner Stimme sprach, ihm aber ein fremder Text in den Mund gelegt wurde. Das Beispiel ging damals um die Welt und gewährte einen Einblick, was noch so alles möglich sein könnte mithilfe sogenannter künstlicher neuronaler Netze, jener derzeit angesagten KI-Methode, in die auch viele große Unternehmen gewaltige Summen stecken und deren Potential als enorm eingeschätzt wird. Täuschend echte Videos gehören, das ist seitdem klar, sehr sicher dazu - „fake videos“ analog zu „fake news“ sozusagen.

          Nun ist eine dramatische Möglichkeit offenbar geworden, wie die Fortschritt in der KI offenkundig missbraucht werden können. Ein frei zugängliches auf KI basierendes Programm ermöglicht es Nutzern, die Köpfe Prominenter zum Beispiel in Pornostreifen zu integrieren und mit denen der eigentlichen Darsteller auszutauschen. Die berühmten Schauspielerinnen Gal Gadot, Maisie Williams, Taylor Swift, Scarlett Johansson und Daisy Ridley sind davon nach einem Bericht des Onlinedienstes „Motherboard“ schon betroffen.

          Bald für alle?

          Auf dem Internetportal „Reddit“ gehören einem entsprechenden Forum mittlerweile Tausende Mitglieder an, die sich dort demnach Nachrichten und Videos zusenden. Ein Nutzer namens „deepfakes“ steht dahinter. Er habe zudem den Algorithmus erdacht, der wiederum dem frei zugänglichen Programm „FakeApp“ zugrunde liegt, das einer oder mehrere andere Nutzer erschaffen haben, die hinter dem Namen „DeepfakeApp“ stehen. Mit dessen Hilfe lassen sich manipulierte Videosequenzen erstellen, können Nutzer Köpfe vertauschen.

          Grob zusammengefasst funktioniert das so: Ein schlaues Computerprogramm lernt, ein bestimmtes Gesicht zum Beispiel eines Hollywoodstars zu identifizieren, in dem es unzählige eingefrorene Videoabschnitte anschaut. Ist die Zahl der Lernbeispiele groß genug, dann ist es augenscheinlich in der Lage, dieses Gesicht an die Stelle eines anderen zu setzen in einem anderen Video. Nötig ist dafür neben ausreichendem Videomaterial ein leistungsfähiger Rechner.

          Nach einem Bericht des Tech-Dienstes „The Register“ sind bislang vor allem prominente Frauen Opfer solcher Manipulationen geworden. Zum Beispiel fügte jemand die Star-Wars-Schauspielerin Daisy Ridley in ein pornographisches Video ein (unser Bild). „Ich möchte diese unglaubliche Gesichteraustausch-Technolgie (“face swapping“) auch Nutzern zugänglich machen, die nicht notwendigerweise eine technischen Hintergrund haben“, zitiert die Seite den Programmerfinder „DeepfakeApp“, mit dem sie in dieser Woche Kontakt gehabt habe. Damit konfrontiert, dass theoretisch beispielsweise auch Kindergesichter in Pornofilme hinein getauscht werden könnten und wie er es überhaupt mit dem Missbrauch dieser Technik halte, sagte er demnach: „Schlussendlich (...) ist es unmöglich, jemanden davon abzuhalten, was er mit diesem Instrument machen möchte und das bedeutet unglücklicherweise auch, dass einige es missbrauchen werden.“

          Schon vor einigen Wochen, kurze Zeit nachdem die Internetseite „Motherboard“ erstmals über den Reddit-Nutzer „deepfakes“ berichtet hatte, sagte der Computerwissenschaftler Peter Eckersley von der Electronic Frontier Foundation voraus, dass bald der Punkt erreicht sei, an dem die dahinterstehende Technologie (face-swapping) leicht anzuwenden und weit verbreitet sein werde. „Heute können Fake-Videos mit Hilfe neuronaler Netze gemacht werden, aber die Menschen werden bei genauem Hinsehen noch erkennen können, dass das eine Fälschung ist. (...) Das wird aber nicht mehr länger so bleiben als ein oder zwei Jahre.“

          Weitere Themen

          Das ist krass

          FAZ Plus Artikel: Videoportal Youtube : Das ist krass

          Jugendliche holen sich ihre Informationen nicht bei klassischen Medien, sondern bei Youtube und anderen sozialen Medien. Wie anfällig diese für Demagogie sind, zeigt die Kampagne gegen eine EU-Richtlinie.

          Der Kampf ums Erdgas Video-Seite öffnen

          Schneller Schlau : Der Kampf ums Erdgas

          Es geht um viele Milliarden – und Deutschland ist einer der größten Importeure der Welt von Erdgas. Kein Wunder also, dass andere Länder mit harten Bandagen um Lieferverträge konkurrieren.

          Maßnahmenpaket für die Bahn Video-Seite öffnen

          Verbesserung der Pünktlichkeit : Maßnahmenpaket für die Bahn

          Die Deutsche Bahn stellte ein Maßnahmenpaket für Verbesserungen im Betriebsablauf vor. 22.000 Mitarbeiter sollen rekrutiert werden, neue Züge sollen zusätzliche Kapazität schaffen. Die Finanzierung ist bisher jedoch unklar.

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.