KI-Forscher stellen eine Analyse-KI vor, die gefälschte Gesichter in Videos verlässlich entlarvt – und anschließend die letzten Bildfehler ausmerzt.

Welche der Standaufnahmen in der Titelbild-Montage sind real – und welche nur gefälscht? Die Chance ist hoch, dass das kein Mensch erkennt. Die Antwort steht im letzten Satz des Artikels.

Dass solche Video-Fälschungen immer leichter zu produzieren sind und gleichzeitig überzeugender wirken, könnte zu einem gesellschaftlichen Problem werden. Gefälschte Promi-Pornos deuten das an oder Fake-Videos von Politikern, denen jedes Wort in den Mund gelegt wird.

Fake-Videos verlässlich als solche zu entlarven, könnte daher sehr wichtig werden. Eine Forschungsgruppe der TU München sowie der Universitäten Erlangen-Nürnberg und Neapel Federico II stellen die Analyse-KI “XceptionNet” vor, die das – zumindest für den Moment – leisten kann.

Kompression schützt die Fälschung

Umso stärker ein Video komprimiert ist, desto weniger verlässlich ist die Pixel-basierte Auswertung einer Analyse-KI. Bei umkomprimierten und leicht komprimierten Videos erkennt XceptionNet so gut wie jedes Fake-Video verlässlich.

Wenn ein Video stark komprimiert ist, kann es schlechter als Fälschung entlarvt werden. Grafik: TUM / Rössler

Wenn ein Video stark komprimiert ist, kann es schlechter als Fälschung entlarvt werden. Grafik: TUM / Rössler

Bei stark komprimierten Videos – wie man sie häufig in Social Media vorfindet – werden immerhin fast 88 Prozent der Fälschungen entlarvt. Gerade hier schneidet XceptionNet etwas besser ab als vergleichbare Ansätze aus 2016 und 2017.

Analyseverfahren im Vergleich. No-c meint unkomprimierte Videos, hard-c-Videos sind stark komprimiert. Grafik: TUM / Rössler

Analyseverfahren im Vergleich. No-c meint unkomprimierte Videos, hard-c-Videos sind stark komprimiert. Grafik: TUM / Rössler

Die Basis für diesen Fortschritt bildet ein eigens geschaffener Datensatz, mit dem XceptionNet trainiert wurde. Der Datensatz enthält über 500.000 Standaufnahmen aus 1.004 Videos. Laut den Forschern übertrifft diese Sammlung an manipulierten Aufnahmen bisherige vergleichbare Datensätze deutlich.

Erkannte Bildfehler können ausgebessert werden

Eine Besonderheit von XceptionNet ist es, dass die Analyse-KI Bildfehler in manipulierten Videos nicht nur erkennen, sondern in einem zweiten Schritt auch ausbessern kann. Die Fälschungen sind dann – zumindest für das menschliche Auge – im Grunde nicht mehr von realen Aufnahmen zu unterscheiden.

XceptionNet selbst ist von den optimierten Fakes allerdings weitgehend unbeeindruckt und erkennt sie fast so verlässlich, wie die ursprünglichen Fälschungen.

Ein optimiertes Fake-Video wird fast so verlässlich erkannt wie die ursprüngliche Fälschung. Grafik: TUM / Rössler

Ein optimiertes Fake-Video wird fast so verlässlich erkannt wie die ursprüngliche Fälschung. Grafik: TUM / Rössler

Dass sich die KI so selbst auf die Probe stellt und diese besteht, ist wichtig. Womöglich kann so ein Wettrennen zwischen Fälschern und Detektoren vermieden werden.

Weitere Informationen stehen auf der offiziellen Projektseite. Im Titelbild ist immer das obere Standbild real.

Weiterlesen über KI-Fake-Medien:

| Via: Technology Review


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #115: Oculus Rift 2, Pimax Vorbestellstart, AWE 2018 | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.