Wenn Künstliche Intelligenz automatisiert und auf hohem Niveau Multimedia fälscht, weiß irgendwann niemand mehr, was real ist und was ein Täuschungsmanöver. Das jedenfalls befürchten drei US-Abgeordnete, die sich in einem Brief an den US-Geheimdienstdirektor Dan Coats wenden.

Eigentlich war Deepfakes nur der Name eines Reddit-Nutzers. Er tauchte erstmals im Dezember 2017 auf und schenkte dem Internet einen KI-Algorithmus, mit dem Gesichter in Videos digital ausgetauscht werden können. Das Internet nutzte den Algorithmus zuerst für Pornos – was sonst?

Seitdem gab es zahlreiche weitere Beispiele, wie Künstliche Intelligenz durch präzise Pixelumfärberei Fotos und Videos vollständig transformieren kann. Die Besonderheit ist die hohe Qualität der Fälschungen bis auf Hollywood-Niveau, die mit vergleichsweise geringem Aufwand erreicht werden kann.

Längst geht es dabei nicht mehr nur um den Gesichtertausch. Ganze Szenen und Bewegungen oder Stimmen sind manipulierbar. Deepfakes – der Reddit-Nutzername ist zum Synonym geworden für ein mögliches neues Medienzeitalter, in dem die Beweiskraft von Fotos und Videos verloren geht.

Abgeordnete befürchten “Erpressung und Fehlinformation”

Noch sind diese KI-Fälschungen mit einem präzisen Blick gut zu entlarven. Fast immer sind Bildfehler und Artefakte sichtbar. Dass dem nicht so bleibt, ist absehbar.

Drei US-Abgeordnete wenden sich daher in einem offenen Brief an den US-Geheimdienstdirektor Dan Coats. In dem Brief schildern sie ihre Befürchtungen: Realistisch gefälschte Videos und Fotos könnten für Erpressungsversuche eingesetzt werden oder um gezielt Fehlinformationen zu verbreiten.

Die Politiker bezeichnen Deepfakes als mögliche Bedrohung für den öffentlichen Diskurs und die nationale Sicherheit, sofern die Technologie besser und zugänglicher wird. KI-Fälschungen hätten das Potenzial, “jede Facette der Gesellschaft zu verändern und könnten gefährliche internationale und inländische Konflikte auslösen”.

In ihrem Brief an den Geheimdienst fordern die Abgeordneten unter anderem einen regelmäßigen Bericht darüber, ob und wie ausländische Organisationen und Individuen den USA mit KI-Fälschungen schaden könnten. Außerdem soll der Geheimdienst mögliche Gegenmaßnahmen beschreiben, bewerten und Handlungsempfehlungen aussprechen.

Die Wissenschaft sucht nach solchen Gegenmaßnahmen: Beispielsweise stellten Forscher kürzlich eine Methode vor, mit der KI-Videos von Personen anhand von fehlenden Blinzlern als Fälschung identifiziert werden können.

Die Forscher räumen allerdings auch ein, dass ein authentischer Lidschlag zukünftig einfach besser gefälscht werden könnte. Ein Wettrennen zwischen Angreifer und Verteidiger wie bei der Netzsicherheit deutet sich an.

Was wiegt schwerer: Die Fälschung – oder der Vorwurf der Fälschung?

Womöglich ist das große Risiko einer KI-Fälschung gar nicht die Fälschung an sich – selbst wenn die Menge und Glaubhaftigkeit zunimmt.

Falschmeldungen und Menschen, die diese aus Eigeninteresse verbreiten, weil sie in ihr Weltbild passen oder ein bestimmtes Ziel verfolgen, gibt es zuhauf. Und wer solche Meldungen erstellt, kann sie schon jetzt mit gefälschten Videos oder Fotos unterstützen, um die Suggestionskraft zu verstärken. Das ist nicht neu.

Das größere Risiko, das von KI-Fälschungen ausgeht, könnte die subtile und pauschale gesellschaftliche Verunsicherung sein, ob einem Inhalt vertraut werden kann oder nicht. Das ist Wasser auf die Mühlen jener, die lieber Fakten anderer diskreditieren, anstatt eigene zu schaffen.

Via: The Verge

Weiterlesen über KI-Fakes:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #115: Oculus Rift 2, Pimax Vorbestellstart, AWE 2018 | Alle Folgen anhören


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.