Der KI-Algorithmus Deepfakes könnte so etwas wie die Büchse der Pandora für gefälschte Videos sein. Plattformen wehren sich vergebens.

Nach Pornhub, Twitter und Gfycat hat auch Reddit die Fake-Porno-Gemeinschaft vollständig von der eigenen Plattform verbannt. Als Grund geben die Reddit-Betreiber an, dass es sich bei den Fake-Videos um unfreiwillige Pornografie handelt. Die entsprechende Regel wurde explizit um einen Halbsatz zu Fälschungen ergänzt.

Regeln sind das eine, diese durchzusetzen etwas völlig anderes. Das gilt speziell fürs Internet: Natürlich verschwinden durch die Löschaktionen weder gefälschte Promi-Pornos noch die Fälschungsmethode aus dem Netz. Und die Nutzer, die diese Pornos erschaffen und ansehen, sowieso nicht.

Das Internet ist voller Deepfake-Pornos

So sind bekannte Webseiten für kostenlose Pornovideos voll mit den unfreiwilligen Promi-Pornos. Sie können über eine einfache Suchanfrage gefunden werden, obwohl die Plattformbetreiber zum Teil Löschaktionen ankündigten. Der Algorithmus hinter den Fälschungen wird bei Reddit weiter diskutiert und verbessert, beispielsweise in den Gruppen Safe for Work Deepfakes und Fakeapp. Die Porno-Fälscher organisieren sich an anderer Stelle neu.

In einer E-Mail an die US-Webseite The Verge drückt ein aktives Mitglied der früheren Deepfakes-Gruppe ein generelles Mitgefühl aus für jene Menschen, die sich von den Fälschungen betroffen fühlen oder sich vor ihnen fürchten. “Aber eines müssen wir festhalten: Deepfakes wird immer besser … die Menschen werden Angst haben.”

Und weiter: “Die Technologie kann nicht wieder rückgängig gemacht werden, also machen wir mit ihr weiter.” Er sei ein Befürworter des Deepfake-Algorithmus an sich und weniger davon, wofür dieser derzeit genutzt würde. “Aber so ist es halt: Willkommen im Internet.”

Der Nutzer sieht eine vermeintlich positive Seite: Rachepornos sollen an Bedeutung verlieren, da ohnehin niemand mehr sagen könne, welche Videos gefälscht und welche echt seien.

Deepfakes ist kein Porno-Algorithmus

Klar ist auch, dass die Software zwar mit der Motivation entwickelt wurde, glaubhafte Promi-Pornos zu kreieren. Aber natürlich macht sie keinen Unterschied zwischen nackten und angezogenen Menschen. Gesichter tauschen kann sie in jedem Video.

Der Special-Effects-Künstler Benjamin Van Den Broeck bewertet den Algorithmus aus professioneller Perspektive: “Vor Deepfakes brauchte man ein ganzes Team an Künstlern, das rund um die Uhr arbeitete, um einen wenigstens im Ansatz überzeugenden Gesichts- oder Körpertausch zu kreieren”, sagt Van Den Broeck.

Der Algorithmus durchbreche die Barriere des Uncanny Valley und könne mit nur einem Gaming-Computer einen “erschreckend akkuraten” Gesichtstausch generieren. Dafür benötige man “kein Team, keine Renderfarm und kein Geld” mehr, sagt Van Den Broeck.

In den Händen vieler könne die Software ernsthafte Konsequenzen haben, da dann jedes Video als potenzielle Fälschung behandelt werden müsse – auch solche, die eigentlich echt seien. Für Googles KI-Forscher Ian Goodfellow ist es daher ein “historischer Glücksfall”, dass sich die Menschheit in den letzten Jahrzehnten weitgehend auf Videos verlassen konnte, um sicherzustellen, dass etwas wirklich stattgefunden hat.

| Featured Image: Screenshot einer Deepfake-Fälschung mit Daisy Ridleys Kopf, Körper unbekannt

Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #103: Magic Leap Sichtfeld, Pico G2 und Santa Cruz Ports | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.