Ariana Grande, Emma Watson und Gal Gadot sind unter den Opfern
App fälscht Pornos mit echten Stars

Ein Hardcore-Porno mit einem Hollywod-Star als Hauptdarsteller? Dank einer App von «deepfakes» kein Problem. Doch die oft zur Verbreitung benutzte Plattform Gfycat geht bereits aktiv dagegen vor und löscht die gefälschten Videos.
Publiziert: 02.02.2018 um 17:04 Uhr
|
Aktualisiert: 13.09.2018 um 04:38 Uhr
Gal Gadot wird Opfer von Fake-Porn-Attacke
0:37
«Wonder Woman»-Schauspielerin:Gal Gadot wird Opfer von Fake-Porn-Attacke
Fabienne Kinzelmann und Georg Nopper

Freiwillig dürfte Schauspielerin Emma Watson kaum in einem Porno mitspielen. Aber genau solche Bilder kursieren monentan im Internet. Zwar gibts Fälschungen von Bildern und Videos schon lange – jetzt lassen die sich aber ganz einfach per App herstellen. 

Der User «deepfakes» der Plattform Reddit hat eine App programmiert, mit der die Gesichter von Promis auf beliebige Gesichter montiert werden können. Klar, dass die Software von den Usern sofort auf Pornos angewandt wurde. So gehören Ariana Grande, Emma Watson oder Gal Gadot (BLICK berichtete) zu den Hollwood-Promis, die unfreiwillig in die Horizontale gehen.

Screenshot aus einem sogenannten Deepfakes-Video: Der Kopf von Sängerin Ariana Grande auf dem Köper eines Pornostars.
Foto: Reddit

Die Fake-App macht das Fälschen kinderleicht – und ist ein viraler Erfolg: Mehr als 100'000 Mal wurde das Desktop-Tool bereits runtergeladen. Die Technologie hinter dem nach ihrem Erfinder benannten «Deepfakes» nennt sich Face Swapping.

«Die Algorithmen merzen Unterschiede bald aus»

Doch wie funktioniert der Gesichter-Tausch? Die App vergleicht Gesichtszüge der Porno-Darsteller mit Bildern im Internet. Es wird nach einer ähnlichen Gesichtsstruktur gesucht. Und weil es von Prominenten eben besonders viel Bild- und Videomaterial im Netz gibt, sind sie leichte Opfer. Zahlreiche Schauspielerinnen und Stars wurden so schon in Schmuddelkram eingebaut.

Noch sind die Fälschungen bei genauerem Hinschauen als solche erkennbar, aber das dürfte bald vorbei sein. Thomas Koller, Informatikprofessor der Hochschule Luzern: «Früher konnte man gefälschte Videos einfacher erkennen: Stimmt die Beleuchtung? Fällt der Schatten anders? Stimmen die Grössenverhältnisse und die Übergänge? Die Algorithmen merzen diese Unterschiede aber zunehmend aus.»

Kampf gegen die Bilderflut

Jetzt also überschwemmen Porno-Fakes das Internet. Die Sequenzen werden oft über den Dienst Gfycat verbreitet. Dieser erlaubt das Hochladen von pornografischem Material. Trotzdem löschen die Verantwortlichen die Deepfake-Videos, wie das Tech-Magazin «Motherboard» berichtet.

Begründet wird der Schritt mit den Nutzungsbedingungen. Diese erlauben es der Firma aus San Francisco, unerwünschte Inhalte zu entfernen. «Wir entfernen diese Inhalte aktiv», heisst es in einer Stellungnahme.

Die Videotechnik ist anfälliger für Fälschungen

Videofälschungen sind in den vergangenen Jahren extrem gut geworden. Die Technik hat einen Sprung nach vorne gemacht. Ein gefälschtes Video des früheren US-Präsidenten Barack Obama, bei dem ihm Worte in den Mund gelegt wurden, die er nie gesagt hatte, zeigt zum Beispiel, was alles möglich ist. Oder auch Angela Merkel, deren Züge bei einer Rede durch das teigige Gesicht von Donald Trump ersetzt wurden – zu finden auf Youtube und tausendfach aufgerufen.

Dass Unterschiede mit dem blossen Auge kaum noch zu erkennen sind, macht die Identifikation gefälschter Inhalte schwierig. Hat Obama dieses oder jenes nun wirklich gesagt? Wer kann schon das Gegenteil beweisen, wenn es täuschend echtes Filmmaterial davon gibt? «Videos sind von der Glaubwürdigkeit stärker betroffen als ein gefälschter Text oder ein Foto. Wenn gefälschte Videos jetzt immer realistischer aussehen, kann die Echtheit leicht angenommen werden», sagt Bildverarbeitungs-Experte Koller.

«Sie können auch von einem Promi verklagt werden»

Das Desktop-Tool «FakeApp» macht die Videofälschung quasi für den Hausgebrauch möglich. Bei den «Deepfakes» werden modernste Techniken der Bildverarbeitung mit neuronalen Netzen verbunden. Sie ermöglichen es, komplexe Muster zu erkennen – ein Gesicht kann dann leicht ausgetauscht werden. 

Jana Koehler, Informatikprofessorin und Expertin für künstliche Intelligenz (KI), verurteilt die «Deepfakes»-Anwendung aufs Schärfste. «Sie verletzt die Würde der Menschen.» Eine Gesellschaft müsse sich die Frage stellen, welche Bildmanipulationen erlaubt sein sollten und wie die Bilder zu kennzeichnen sind, sagt Informatikerin Jana Koehler. Wenn Informationen quasi «perfekt» gefälscht werden könnten, sei es eine gesellschaftliche Aufgabe, die negativen Anwendungen von Technologien zu verhindern.

Deepfake-Pornos sind eine Persönlichkeitsverletzung

Dass nun aber jeder dank aus sozialen Netzwerken gezogenen Selfies und Videos mit der Fake App massenweise gefälschte Pornos seiner Ex-Freundin ins Netz stellt, glaubt Medienrechtler Martin Steiger nicht. «Ich denke, dass der Reiz von Neuem schnell weg ist. Ich könnte mir vorstellen, dass das Tool eher für lustige Videos und Memes verwendet wird als für Rachepornos.» Die gefälschten Deepfake-Videos stellten für den Betroffenen jedoch eine widerrechtliche Persönlichkeitsverletzung dar, denn sie verletzen das Recht am eigenen Bild.

Der Betroffene könnte gegen den Ersteller genauso wie gegen die Plattform, auf der das Video veröffentlicht wurde, klagen. «Theoretisch könnten Sie auch von einem Promi wegen Persönlichkeitsverletzung verklagt werden, wenn Sie einen gefälschten Porno ins Netz stellen. In der Realität wird der Promi das aber kaum machen.»

Das Desktop-Tool «FakeApp» macht die Videofälschung quasi für den Hausgebrauch möglich. Bei den «Deepfakes» werden modernste Techniken der Bildverarbeitung mit neuronalen Netzen verbunden. Sie ermöglichen es, komplexe Muster zu erkennen – ein Gesicht kann dann leicht ausgetauscht werden. 

Jana Koehler, Informatikprofessorin und Expertin für künstliche Intelligenz (KI), verurteilt die «Deepfakes»-Anwendung aufs Schärfste. «Sie verletzt die Würde der Menschen.» Eine Gesellschaft müsse sich die Frage stellen, welche Bildmanipulationen erlaubt sein sollten und wie die Bilder zu kennzeichnen sind, sagt Informatikerin Jana Koehler. Wenn Informationen quasi «perfekt» gefälscht werden könnten, sei es eine gesellschaftliche Aufgabe, die negativen Anwendungen von Technologien zu verhindern.

Deepfake-Pornos sind eine Persönlichkeitsverletzung

Dass nun aber jeder dank aus sozialen Netzwerken gezogenen Selfies und Videos mit der Fake App massenweise gefälschte Pornos seiner Ex-Freundin ins Netz stellt, glaubt Medienrechtler Martin Steiger nicht. «Ich denke, dass der Reiz von Neuem schnell weg ist. Ich könnte mir vorstellen, dass das Tool eher für lustige Videos und Memes verwendet wird als für Rachepornos.» Die gefälschten Deepfake-Videos stellten für den Betroffenen jedoch eine widerrechtliche Persönlichkeitsverletzung dar, denn sie verletzen das Recht am eigenen Bild.

Der Betroffene könnte gegen den Ersteller genauso wie gegen die Plattform, auf der das Video veröffentlicht wurde, klagen. «Theoretisch könnten Sie auch von einem Promi wegen Persönlichkeitsverletzung verklagt werden, wenn Sie einen gefälschten Porno ins Netz stellen. In der Realität wird der Promi das aber kaum machen.»

Mehr
Fehler gefunden? Jetzt melden
Was sagst du dazu?