2

HTC Vive: Valve zeigt Prototyp mit integriertem Eye Tracking

von Tomislav Bezmalinovic4. März 2017

Vor wenigen Tagen berichteten wir, dass Valve Eye-Tracking-Technologie von SMI in HTC Vive verbaut hat und den Prototyp auf der GDC zeigen wird. Nun ist ein erster Erfahrungsbericht aufgetaucht.

Gezeigt wurde der Protoyp in einem getrennten Bereich innerhalb von Valves GDC-Stand. Seth Colaner von Tom’s Hardware konnte die modifizierte VR-Brille ausprobieren. Er schreibt, dass die verbauten Komponenten aus nichts weiter als einer kleinen Leiterplatte und zwei Drähten mit winzigen Kameras an den Enden bestehen, die das Auge 240 Mal pro Sekunde scannen. Die Technologie sei bereits vollständig in die VR-Brille integriert worden, sodass von der Elektronik nichts zu sehen ist. Die Implementierung koste weniger als zehn US-Dollar.

Colaner zufolge sind die Linsen der VR-Brille von kleinen LED-Lämpchen umgeben, die das Auge erleuchten, damit die Kameras die Bewegungen der Pupille erfassen können. Diese Illuminatoren glichen sehr stark jenen, die Tobii für die Implementierung seiner Eye-Tracking-Technologie verwendete (siehe Artikelbild). Das schwedische Unternehmen hat seine Technologie versuchsweise ebenfalls in eine HTC Vive integriert und den Prototyp auf der GDC gezeigt.

Für die Kalibrierung musste Colaner während fünf Sekunden mit den Augen einem Punkt auf dem Display folgen. Danach war das Eye Tracking eingerichtet und einsatzbereit. Die Kalibrierung funktionierte allerdings erst, als Colaner seine Brille abnahm. Die Reflektionen auf dem Brillenglas brachten die Trackingkameras aus dem Tritt. Nach der Kalibrierung wurden Colaner drei Demos vorgeführt, die verschiedene Aspekte des Eye Tracking hervorheben sollten.

Die Magie des Augenkontaktes

In der ersten Demo musste der Journalist Komponenten eines virtuellen CPU-Kühlers zusammensetzen. Mit dem Blick fokussierte er die einzelnen Elemente, worauf diese markiert wurden und per Tastendruck kombiniert werden konnten. Colaner beschreibt das Auswählen von Objekten per Blick als sehr intuitiv.

Danach wurde Colaner eine Techdemo gezeigt, die das Potenzial von Eye Tracking für Social-VR vorführen sollte. Die Entwickler von Rec Room haben eigens zu diesem Zweck eine Techdemo programmiert, die auch Tobii verwendete (siehe Video unten). Zu Demonstrationszwecken betraten zwei Avatare den virtuellen Raum. Mit Hilfe des Eye Trackings konnte Colaner Augenkontakt mit ihnen herstellen.

Dies machte großen Eindruck auf den Journalisten: “Der Augenkontakt ist enorm wichtig für Social-VR. Es ist eine Sache, die Hand- und Kopfbewegungen eines Avatars zu sehen und eine andere Sache, mit ihnen Augenkontakt herzustellen”, schreibt Colaner. Die Augen würden sehr viele Informationen vermitteln, die im sozialen Kontext wichtig sind:

“Einige Menschen stellen keinen Augenkontakt her, andere wiederum zu viel, einige kucken nervös umher, andere schauen einem über die Schulter usw. Mit Eye Tracking kriegt man all das mit.” Selbst das Blinzeln, das Heben der Augenbrauen heben und das Schielen wurde erfasst und in die Virtual Reality übertragen.

Funktionierendes Foveated Rendering

In der dritten und letzten Demo wurde Foveated Rendering vorgeführt. Bei diesem Renderverfahren wird nur derjenige Bereich detailliert berechnet, den man mit dem Auge fokussiert. Auf diese Weise könnte in VR-Anwendungen künftig viel Rechenleistung frei werden, die für eine höhere Auflösung oder bessere Effekte verwendet werden könnte.

Colaner beschreibt einen dunklen Raum, in dem er von schwebenden, lichtdurchlässigen Würfeln umgeben war. Ein SMI-Mitarbeiter schaltete das Foveated Rendering ein und aus, um den Unterschied kenntlich zu machen. Colaner versuchte, das System zu überlisten und den Randbereich auszumachen, ab dem das Bild weniger detailliert berechnet ist. Dies sei ihm jedoch nicht gelungen.

| Featured Image and Source: Tom’s Hardware

Empfohlene Artikel: