Selbstlernende KI-Technologie soll der Filmbranche neue Produktionsverfahren ermöglichen.

In den letzten Monaten machte Künstliche Intelligenz als Werkzeug für die Bild- und Videomanipulation auf sich aufmerksam. Prominentestes Beispiel: Die KI-Software “Deepfakes”, die auf den digitalen Gesichtertausch spezialisiert ist.

Sie machte die Runde, da mit ihrer Hilfe selbst KI-Laien recht glaubhaft das Gesicht einer Darstellerin in einem Pornovideo durch das einer berühmten Frau – oder der Ex-Freundin – ersetzen konnten. Die Fake-Pornos verbreiteten sich schnell im Internet.

Nutzer wandten den Algorithmus auch auf Spielfilme wie Star Wars an – mit im Verhältnis zum Aufwand erstaunlichen Ergebnissen. Das obere Bild im folgenden Video zeigt den originalen Spezialeffekt, bei dem die Gesichtszüge einer Schauspielerin aufwendig gegen jene der jungen Carrie Fisher getauscht wurden.

Deepfakes erzielte im Vergleich viel schneller ein ähnliches Ergebnis (unteres Bild): Laut Entwickler war die Szene nach nur 20 Minuten im Kasten.

Es gibt noch mehr Beispiele für die visuelle Wirkmacht Künstlicher Intelligenz: Zum Beispiel Fake-Porträts von Berühmtheiten, die nie existierten. Oder ein Bildbearbeitungswerkzeug, das mit wenigen Mausklicks Fotos komplett umgestalten kann. Kürzlich demonstrierte Facebook eine Bild-KI, die geschlossene Augen auf Porträtaufnahmen nachträglich öffnet.

KI soll Spezialeffekteproduktion automatisieren

Als Produzent war Rob Bredow zuletzt beteiligt an “Solo: A Star Wars Story”. Er leitet das bekannte Spezialeffektestudio Industrial Light & Magic.

Bredow (via Hollywood Reporter) geht davon aus, dass KI-Algorithmen wie Deepfakes großen Einfluss haben werden auf die Spezialeffektebranche.

“KI wird unsere Arbeit grundlegend verändern. Wir können einen Computer trainieren, etwas zu tun”, sagt Bredow. “Ein interessantes Beispiel ist der digitale Gesichtertausch. Wir kennen natürlich all die manuellen Schritte. Aber maschinelle Lernverfahren können sie uns abnehmen”, sagt Bredow.

Speziell Deepfakes biete zwar keine ausreichende Qualität für eine Hollywood-Produktion. Aber: “Wir haben die Probleme der Software identifiziert und es wird nicht mehr lange dauern, bis wir sie mit viel höherer Qualität für Profiproduktionen nutzen können.” Laut Bredow braucht die Entwicklung noch ein bis zwei Jahre.


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #111: Astrobot, VR-Isolation und Quest-Zielgruppe | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.