Nvidia zeigt, wie Künstliche Intelligenz die Computergrafik revolutionieren könnte.

Dank sogenannter GAN-Netzwerke hat Künstliche Intelligenz in den letzten Monaten enorme Fortschritte bei der Bildgenerierung erzielt. Bei dem Verfahren spornen sich zwei konkurrierende KI-Agenten zu Höchstleistungen an und verbessern sich gegenseitig.

Beispiele für visuell beeindruckende GAN-Ergebnisse gibt es zuhauf, zuletzt beispielsweise täuschend echte Burgerfotos von Deepmind oder ein KI-Porträt, das für 432.000 US-Dollar versteigert wurde. Auch die bekannte Deepfakes-KI für Videomanipulation und ihre diversen Abwandlungen nutzen das GAN-Prinzip.

25 KI-Bilder pro Sekunde

Erstmals rendert jetzt Nvidia mit einem GAN-Netzwerk in Kombination mit der Unreal Engine eine interaktive 3D-Welt in Echtzeit. Das Unternehmen feiert das als “KI-Durchbruch”, der es Entwicklern und Künstlern erlauben soll, digitale Welten anhand von realen Videos mit Leben zu füllen. Das soll den Zeitaufwand und damit die Kosten für die Kreation virtueller Welten senken.

Für die interaktive KI-Grafikdemo trainierten Nvidias Forscher zunächst einen Algorithmus mit Trainingsvideos für autonome Autos. Diese Videoaufnahmen sind als Open-Source-Datensatz kostenfrei verfügbar.

Der Inhalt dieser Videos wird von einem für diese Aufgabe optimierten neuronalen Netz in verschiedene Kategorien aufgeteilt: Autos, Straßen, Bäume, Gebäude und so weiter. Ein GAN-Netzwerk kreiert dann auf Basis dieser Daten neue, digitale und texturierte 3D-Versionen dieser Objekte.

Die Spielewelt an sich wird traditionell mit der Unreal Engine konstruiert, eine Art beschriftete 3D-Zeichnung, in die die Künstliche Intelligenz die Grafik einfügt. Die KI-Objekte können nachträglich noch bearbeitet werden.

Mit diesem Verfahren können recht schnell virtuelle, interaktive Abbilder realer Orte erstellt werden, was laut Nvidia beispielsweise für die Architektur, autonome Autos oder das Robotertraining nützlich sein kann.

“GAN-Netzwerke verändern, wie wir Grafik generieren”, sagt Nvidias KI-Forscher Bryan Catanzaro. “Entwickler können neue Szenen für einen Bruchteil der Kosten traditioneller Verfahren erstellen.”

Die Demo läuft mit 25 Bildern pro Sekunde auf einer Titan-V-Karte. Weitere Informationen gibt es in der wissenschaftlichen Veröffentlichung.

Weiterlesen über Nvidia:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #120: Cebit-Erinnerungen, Duplex-Menschen und KI-Vorurteile | Alle Podcast-Folgen


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.