http://www.faz.net/-gqe-96i34

Künstliche Intelligenz : Jetzt also „Fake Porn“

  • Aktualisiert am

Sieht täuschend echt aus: Der Kopf von Schauspielerin Daisy Ridley (Star Wars) auf einem fremden Körper. Bild: Jiffier Gifs

Spielen die Hollywoodstars Scarlett Johansson und Daisy Ridley in Porno-Filmen mit? Keineswegs. Doch mit digitalen Manipulationen wurden ihre Gesichter auf fremde nackte Körper in entsprechenden Streifen montiert. Das Ergebnis wirkt täuschend echt.

          Die Fortschritte im Bereich der Künstlichen Intelligenz machen sich in immer mehr Bereichen bemerkbar. Im vergangenen Sommer sorgten Forscher der University of Washington für Aufsehen, als sie ein manipuliertes Video des früheren amerikanischen Präsidenten Barack Obama präsentierten, in dem das Staatsoberhaupt zwar mit seiner Stimme sprach, ihm aber ein fremder Text in den Mund gelegt wurde. Das Beispiel ging damals um die Welt und gewährte einen Einblick, was noch so alles möglich sein könnte mithilfe sogenannter künstlicher neuronaler Netze, jener derzeit angesagten KI-Methode, in die auch viele große Unternehmen gewaltige Summen stecken und deren Potential als enorm eingeschätzt wird. Täuschend echte Videos gehören, das ist seitdem klar, sehr sicher dazu - „fake videos“ analog zu „fake news“ sozusagen.

          Nun ist eine dramatische Möglichkeit offenbar geworden, wie die Fortschritt in der KI offenkundig missbraucht werden können. Ein frei zugängliches auf KI basierendes Programm ermöglicht es Nutzern, die Köpfe Prominenter zum Beispiel in Pornostreifen zu integrieren und mit denen der eigentlichen Darsteller auszutauschen. Die berühmten Schauspielerinnen Gal Gadot, Maisie Williams, Taylor Swift, Scarlett Johansson und Daisy Ridley sind davon nach einem Bericht des Onlinedienstes „Motherboard“ schon betroffen.

          Bald für alle?

          Auf dem Internetportal „Reddit“ gehören einem entsprechenden Forum mittlerweile Tausende Mitglieder an, die sich dort demnach Nachrichten und Videos zusenden. Ein Nutzer namens „deepfakes“ steht dahinter. Er habe zudem den Algorithmus erdacht, der wiederum dem frei zugänglichen Programm „FakeApp“ zugrunde liegt, das einer oder mehrere andere Nutzer erschaffen haben, die hinter dem Namen „DeepfakeApp“ stehen. Mit dessen Hilfe lassen sich manipulierte Videosequenzen erstellen, können Nutzer Köpfe vertauschen.

          Grob zusammengefasst funktioniert das so: Ein schlaues Computerprogramm lernt, ein bestimmtes Gesicht zum Beispiel eines Hollywoodstars zu identifizieren, in dem es unzählige eingefrorene Videoabschnitte anschaut. Ist die Zahl der Lernbeispiele groß genug, dann ist es augenscheinlich in der Lage, dieses Gesicht an die Stelle eines anderen zu setzen in einem anderen Video. Nötig ist dafür neben ausreichendem Videomaterial ein leistungsfähiger Rechner.

          Nach einem Bericht des Tech-Dienstes „The Register“ sind bislang vor allem prominente Frauen Opfer solcher Manipulationen geworden. Zum Beispiel fügte jemand die Star-Wars-Schauspielerin Daisy Ridley in ein pornographisches Video ein (unser Bild). „Ich möchte diese unglaubliche Gesichteraustausch-Technolgie (“face swapping“) auch Nutzern zugänglich machen, die nicht notwendigerweise eine technischen Hintergrund haben“, zitiert die Seite den Programmerfinder „DeepfakeApp“, mit dem sie in dieser Woche Kontakt gehabt habe. Damit konfrontiert, dass theoretisch beispielsweise auch Kindergesichter in Pornofilme hinein getauscht werden könnten und wie er es überhaupt mit dem Missbrauch dieser Technik halte, sagte er demnach: „Schlussendlich (...) ist es unmöglich, jemanden davon abzuhalten, was er mit diesem Instrument machen möchte und das bedeutet unglücklicherweise auch, dass einige es missbrauchen werden.“

          Schon vor einigen Wochen, kurze Zeit nachdem die Internetseite „Motherboard“ erstmals über den Reddit-Nutzer „deepfakes“ berichtet hatte, sagte der Computerwissenschaftler Peter Eckersley von der Electronic Frontier Foundation voraus, dass bald der Punkt erreicht sei, an dem die dahinterstehende Technologie (face-swapping) leicht anzuwenden und weit verbreitet sein werde. „Heute können Fake-Videos mit Hilfe neuronaler Netze gemacht werden, aber die Menschen werden bei genauem Hinsehen noch erkennen können, dass das eine Fälschung ist. (...) Das wird aber nicht mehr länger so bleiben als ein oder zwei Jahre.“

          Weitere Themen

          Wie weit sind K.I. und Biohacker?

          Tatort-Sicherung : Wie weit sind K.I. und Biohacker?

          Der neue „Tatort“ aus München zeichnet ein beängstigendes Bild von der Künstlichen Intelligenz. Wird sie bald schon Fernsehkommissare überflüssig machen? Wir haben Experten über den Stand der Forschung befragt.

          Amazons Warenlager Video-Seite öffnen

          Zu Besuch in Baltimore : Amazons Warenlager

          Amazon ist das wohl größte Handelsunternehmen weltweit. Dank Innovationskraft und Erfindergeist, konnten sie nicht nur neue Produkte für den Kunden herstellen, sondern setzen auch in der Lagerlogistik neue Maßstäbe.

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.