0

Virtual Reality: Was taugt Googles autarke VR-Brille?

von Tomislav Bezmalinovic21. Mai 2017

Auf der I/O-Konferenz gab es gute Neuigkeiten für Freunde mobiler Virtual Reality. Google arbeitet mit Qualcomm zusammen an einem Referenzdesign für autarke Daydream-Brillen. Bis Ende Jahr wollen HTC und Lenovo einschlägige VR-Brillen für Endverbraucher auf den Markt bringen. Eine kleine Gruppe Journalisten konnte einen frühen Prototyp ausprobieren und berichtet von ihren Eindrücken.

Vorgestellt wurde der Prototyp von Clay Bavor, der Googles VR- und AR-Projekte leitet. Bavor betonte, dass der gezeigte Prototyp ein Jahr alt ist. Der Chip stamme von einer älteren Generation ab und die Latenz sei höher als bei dem finalen Referenzdesign, das im Laufe des Jahres vorgestellt wird. Bei diesem soll Qualcomms neuster Chip, der Snapdragon 835, zum Einsatz kommen.

Adi Robertson von The Verge berichtet, dass der Prototyp wuchtig und blank wirkt, aber wegen der besseren Verteilung des Gewichts bequemer zu tragen sei als Daydream View und Samsung Gear VR. Das Sichtfeld und die Auflösung sei etwa vergleichbar mit HTC Vive und Oculus Rift. Die Komponenten könnten sich aber noch ändern.

Keine Tiefenkamera, hohe Latenz

Die erste Generation der autarken VR-Brillen soll Google zufolge den Daydream-Controller einsetzen. In der Demo kam das Gerät nicht zum Einsatz, sodass sich die Journalisten lediglich umsehen und in einem begrenzten Trackingbereich bewegen konnten. Google bestätigte gegenüber Verge, dass der Protoyp für das räumliche Tracking lediglich zwei herkömmliche RGB-Kameras und anders als Tango keinen Tiefensensor einsetzt.

Die Kameras erfassen Kanten in der realen Umgebung und nutzen diese als Referenzpunkte, um die Position im Raum zu bestimmen. Laut Google soll die Verzögerung zwischen einer realen Bewegung und deren Übertragung in die Virtual Reality 30 Millisekunden betragen. Das Unternehmen verspricht, die Latenz für das finale Referenzdesign auf unter 20 Millisekunden zu drücken.

Gezeigt wurden zwei Demos. In der ersten Demo konnte man sich, umgeben von Quallen und Meeresschildkröten, auf einem Meeresboden bewegen. Die zweite Demo zeigte einen Hangar aus “Rogue One”, die Googles neue Rendertechnologie namens Seurat vorführte. Für die Präsentation bewegte sich Robertson auf einem Teppich mit einem Durchmesser von circa einem Meter. Trat sie aus dem Kreis heraus, wurde das Bild schwarz.

Robertson berichtet, dass Bewegungen im Raum nicht ganz so präzise erfasst werden wie bei Oculus Rift und HTC Vive und dass sich ein leichter Drift bemerkbar macht. Dennoch funktioniere das Inside-Out-Tracking besser als bei Project Alloy und früheren Qualcomm-Brillen. Die Erfahrung sei auf Augenhöhe mit Oculus’ Santa-Cruz-Prototyp, der sie bisher am meisten überzeugte.

Eindrucksvolle Präzision des Trackings

Ben Lang von Road to VR schreibt, dass ihn das Gerät sehr beeindruckt habe. Der Redakteur gibt an, dass der Teppich einen Durchmesser von etwa drei Meter hatte. Die Kopfhalterung erinnert Lang zufolge an Playstation VR und kann am Hinterkopf mit einer Schraube festgezogen werden. Die Linsen sind ähnlich geformt wie bei Sonys VR-Brille, haben aber ein Fresnel-Design wie die von HTC Vive.

Dem Redakteur fiel zudem auf, dass eine Eye-Tracking-Lösung verbaut war. Laut Lang ist zum jetzigen Zeitpunkt noch unklar, ob die Technologie in der Endkundenversion zum Einsatz kommt. Lang schreibt, dass die Genauigkeit und die Latenz des Tracking eindrucksvoll sei. Langsames Gehen im Raum würde ähnlich präzise umgesetzt wie bei HTC Vive.

Der Redakteur schreibt weiter, dass die Demo keine nahen Objekte zeigt, sodass er nicht herausfinden konnte, ob beim Tracking Ungenauigkeiten auftreten. Man müsse das Gerät länger testen, um in Erfahrung zu bringen, ob es auch im Falle schneller und ungewöhnlicher Bewegungen sauber arbeitet, meint Lang. Der Redakteur schreibt, dass das Tracking auch mit nur einer Kamera “relativ gut” funktioniert. Sind beide Kameras aktiv, funktionierte die Bewegungserfassung selbst dann gut, als er in einem halben Meter Höhe auf den Boden blickte.

Lernendes Kameraauge

Ian Hamilton von Upload VR beschreibt, wie die auf Tango basierende Worldsense-Technologie funktioniert. Die Kameras suchen die reale Welt nach Ankerpunkten ab. Je mehr sich der Nutzer im Raum umschaut und bewegt, desto besser lernt Worldsense die Umgebung kennen und desto präziser arbeitet das Tracking. Hamilton beschreibt, dass die Bewegungserfassung nach dem anfänglichen Zurücksetzen der räumlichen Daten zehn Sekunden ruckelte, danach aber einwandfrei arbeitete.

Der Redakteur deckte versuchsweise beide Kameras mit den Händen ab. Dabei konnte er beobachten, wie das räumliche Tracking nach einer Sekunde auf eine planare Bewegungserfassung umschaltete und wie bei Daydream View und Samsung Gear VR keine Bewegung in die Tiefe mehr erkannte. Nachdem er die Hände von den Linsen nahm, setzte das räumliche Tracking wieder ein.

Wie die anderen beiden Redakteure zeigte sich auch Hamilton enttäuscht, dass in der Demo keine Objekte in Griffnähe auftauchten. So konnte er nicht herausfinden, ob virtuelle Objekte driften. Wie Adi Robertson bemängelte Hamilton, dass man die Daydream-Controller bei der Präsentation nicht ausprobieren konnte.

| Featured Image: Google | Source: The Verge / Road to VR / Upload VR

Empfohlene Artikel: