0

Face-Tracking: Virtuelle Avatare werden in Echtzeit lebendig

von Matthias Bastian1. August 2016

Auf der Siggraph Fachkonferenz für Computertechnologie zeigten die Entwickler von Ninja Theory gemeinsam mit Epic Games, wie man Gesichtsmimik in Echtzeit erfassen und digitalisieren kann.

Die Mimik virtueller Darsteller hat in den letzten Jahren massiv an Bedeutung gewonnen. Reichten zu den Anfangszeiten der Videospiele noch ein paar grob aufgelöste Pixelaugen, um digitale Charaktere lebendig werden zu lassen, möchten es cineastisch inszenierte Games heutzutage mit großen Hollywood-Streifen aufnehmen. Dafür müssen selbst feine Details der Gesichtsmuskulatur modelliert werden, um Emotionen so überzeugend wie bei echten Menschen zu vermitteln.

Die Echtzeit-Kinematographie soll virtuelle Welten lebendig machen

Ein neues Verfahren, umgesetzt mit der Unreal Engine, ermöglicht es in Echtzeit, die Gesichtsmimik einer realen Schauspielerin aufzuzeichnen, zu digitalisieren und auf einen virtuellen Avatar zu übertragen. Das vereinfacht vorerst nur die Produktion von überzeugenden Filmsequenzen für Videospiele. Die Technologie dahinter hat aber langfristig auch Implikationen für Virtual Reality. Denn die Echtzeit-Animation ebnet den Weg für glaubhafte digitale Menschen.

GIF Das Entwicklerstudio Ninja Theory überträgt reale Darstellungen in Echtzeit auf virtuelle Charaktere.

Beispielsweise könnten Darbietungen von Schauspielern und Künstlern live in virtuelle Umgebungen übertragen werden. Vorstellbar wäre ein virtuelles Theater ohne Sitzplatzbeschränkung, bei dem jeder Nutzer immer in der ersten Reihe sitzt.

Wird die Technologie für Heimanwender verfügbar, könnte sie die Interaktion in sozialen VR-Umgebungen deutlich lebensechter gestalten. Oculus VR und zahlreiche andere Unternehmen arbeiten an Hard- und Software, die Augen- und Gesichtsbewegungen präzise tracken können – auch mit VR-Brille auf dem Kopf.

Laut Technikchef Kim Libreri von Epic Games lässt sich mit der neuen Echtzeit-Kinematographie noch mehr anstellen: “Man kann damit fast alles anfangen. Man könnte ein ganzes Publikum mitten in Disneys Fantasia versetzen.” Die Technologie soll zukünftig dazu in der Lage sein, alle Details einer Szene in Echtzeit aufzuzeichnen und zu digitalisieren.

Die Demo von Epic Games, Ninja Theory, Cubic Motion und 3Lateral wurde auf der Siggraph 2016 mit dem Preis “Best Real-Time Graphics and Interactivity” ausgezeichnet.

| Featured Image: Unreal Engine (Screenshot bei YouTube)