6

Software erzeugt realistische Avatarbewegungen [Video]

von Tomislav Bezmalinovic5. Dezember 2017

Aktuelle VR-Systeme wie HTC Vive, Oculus Rift und Playstation erfassen nur die Bewegungen des Kopfes und der Hände. Das US-Startup Deepmotion arbeitet an einer Technologie, die aus diesen Trackingdaten virtuelle Körper erschafft, die sich lebensecht bewegen und dynamisch auf Interaktionen mit der Umgebung und Objekten reagieren.

Um anhand von drei Trackingpunkten die Bewegungen eines ganzen Körpers zu simulieren, greifen Entwickler auf Inverskinematik zurück. Bei diesem aus der Robotik stammenden Verfahren wird die räumliche Position nicht erfasster Körperpunkte wie der Ellbogen oder Knie anhand vordefinierter Posen abgeleitet.

Deepmotion arbeitet an einem dynamischeren Ableitungsmodell, das mit Hilfe maschinellen Lernens, physikbasierter Simulation und einem biomechanischen Modell des menschlichen Körpers gewonnen wurde. Das Ziel: Aus den Trackingdaten des Kopfes und der Hände möglichst glaubhafte Posen und Bewegungen abzuleiten, die sich komplexeren Interaktionen dynamisch anpassen.

In einem Youtube-Video (siehe unten) zeigen sie das vorläufige Ergebnis ihrer Bemühungen: Man erkennt zwei Avatare, die miteinander tanzen, sich umarmen und am Kopf berühren, ohne dass die Bewegungen vorab von Hand animiert oder als solche aufgezeichnet wurden.

Beine mit Gleichgewichtssinn

Ein besonderes Augenmerk legten die Entwickler auf die Bewegungen des Unterkörpers, für die ebenfalls keine vorgefertigten Animationen benutzt wurden. Um ein harmonisches Gesamtbild zu schaffen, fließen die simulierten Bewegungen des Oberkörpers in die des Unterkörpers ein, sodass letzterer nicht leblos wirkt.

Der Unterkörper verfügt zudem über einen Gleichgewichtssinn und reagiert dank einer Physiksimulation dynamisch auf Veränderungen der Oberfläche, wie zum Beispiel Steigungen, herumliegende Objekte oder Erschütterungen (siehe Video). Wenn sich der Nutzer hinkniet oder auf den Boden setzt, tut das auch der Avatar, die Stellung der Beine wird dabei realistisch animiert.

Deepmotion sieht in realistischeren Avataren für Social-VR-Apps ein naheliegendes Anwendungsszenario. Ein anderes ist die kostengünstige Erstellung von Animationen für Filme und Spiele. Sind die Bewegungsabläufe im Kasten, können sie exportiert und in Unity oder Unreal geladen werden.

Die gezeigte Technologie ist das bislang beeindruckendste Beispiel für lebensecht umgesetzte virtuelle Avatare auf Basis von Drei-Punkt-Tracking. Neben Deepmotion arbeiten die Cloudgate Studios und iKinema an ähnlichen Lösungen.

Wer Deepmotions Technologie testen möchte, kann sich auf der offiziellen Internetseite für die Closed Alpha anmelden.

| Featured Image: Deepmotion

Empfohlene Artikel: