0

Autarke VR-Brillen: Wie gut funktioniert das Inside-Out-Tracking? *Update*

von Tomislav Bezmalinovic9. Januar 2017

Update vom 9. Januar 2017:

Adi Robertson von The Verge, die auf der CES zwei autarke VR-Brillen von Qualcomm ausprobieren durfte (siehe Artikel unten), konnte sich jetzt auch einen Eindruck von Project Alloy machen.

Robertson berichtet, dass der Raum vorab von einer separaten Realsense-Tiefenkamera gescannt worden sei. Intel zufolge sei das aber auch mit den Kameras möglich, die in Project Alloy verbaut sind. Robertson wurde dieselbe Demo gezeigt wie den anderen Journalisten. Die Grafik sei simpel, aber scharf. Vom Auseinanderdriften von realen und virtuellen Objekten berichtet die Techjournalistin nicht.

Doch wie funktionierte das Inside-Out-Tracking? Robertson schreibt, dass Project Alloy das beste Inside-Out-Tracking nach Oculus’ Santa Cruz Prototyp biete. Das Gefühl, durch den Raum zu schwimmen statt zu gehen, sei im Vergleich zu Qualcomms VR-Brillen deutlich reduziert. Dennoch arbeite die Bewegungserfassung bei Alloy sehr viel ungenauer als bei Oculus Rift und HTC Vive. Nur bei Santa Cruz sei der Unterschied fast nicht mehr zu spüren. Ian Hamilton von Upload VR schrieb in seinem Hands-on von Alloy ebenfalls, dass Santa Cruz derzeit das beste Inside-Out-Tracking biete.

Robertson zufolge hat Intel den Movidius-Chip noch nicht in die Brille integriert. Intel hat im September das auf Computer Vision spezialisierte Unternehmen Movidius gekauft, um dessen Chip in die eigene Hardware zu verbauen. Außerdem wäre die beiden Realsense-Tiefenkameras noch nicht zu einer einzigen Kamera der 400er-Serie zusammengelegt worden. Ein Kaby Lake Prozessor sei, entgegen anderer Aussagen, ebenfalls noch nicht an Bord.

Ursprünglicher Artikel vom 6. Januar 2017:

Mit dem sogenannte Inside-Out-Tracking sollen VR-Brillen nicht mehr auf externe Sensoren angewiesen sein, sondern sich mit Hilfe integrierter Tiefensensoren selbst im Raum verorten können. Auf der CES wurden zwei solcher Geräte Journalisten vorgeführt. Ihr Fazit fällt gemischt aus.

Derzeit betreiben fast alle großen Techunternehmen Forschung im Bereich des maschinellen Sehens. Dieses soll Computern ermöglichen, ihre Umgebung zu erkennen und zu vermessen. Microsoft hat für Hololens Tiefensensoren entwickelt, die auch in den kommenden Windows-Brillen verbaut werden. Dank diesen sollen die Geräte auf keine externen Sensoren mehr angewiesen sein, um sich im Raum zu verorten.

Die Facebook-Tochter Oculus arbeitet derzeit an dem Santa Cruz genannten Prototyp einer VR-Brille, die ebenfalls Inside-Out-Tracking beherrschen soll und im Gegensatz zu den kabelgebundenen Windows-Brillen die Recheneinheit integriert hat. Genau dasselbe Ziel verfolgen AMD, Qualcomm und Intel. Alle drei Chiphersteller arbeiten an autarken VR-Brillen, die Tiefensensoren zur Umgebungserkennung nutzen und ohne Kabel auskommen.

Doch wie gut funktioniert das Inside-Out-Tracking in der Praxis? Auf der CES haben Qualcomm und Intel ihre aktuellen Prototypen vorgeführt. Die Berichte von Techjournalisten fallen verhalten aus.

Unpräzises Tracking

Adi Robertson von The Verge hatte Gelegenheit, gleich zwei autarke VR-Brillen von Qualcomm auszuprobieren. Die erste Brille ist wie Samsung Gear VR und Daydream View eine Smartphonehalterung. In diese Halterung war der Prototyp eines Smartphones eingelegt, das Qualcomms neusten Snapdragon-Chip und zwei Tiefenkameras integriert hat, die für das Inside-Out Tracking zuständig sind.

Die Techjournalistin schreibt in ihrem Bericht, dass die Bewegungserfassung in der Virtual Reality erst nach ein oder zwei Schritten einsetzt. Das wiederum fühle sich nicht an, als würde man gehen, sondern schwimmen. Dasselbe traf, wenn auch in etwas geringerem Maße, auf den zweiten Prototyp zu. Bei diesem handelte es sich um eine verbesserte Version der VR820, einer autarken VR-Brille, die Qualcomm Anfang September auf der IFA vorstellte.

Kein Echtzeit-Scanning

Intel zeigte auf der CES die aktuelle Version seiner autarken VR-Brille namens Alloy. Die VR-Brille wurde im August 2016 vorgestellt und ist seither verbessert worden: In dem neuen Prototyp arbeitet jetzt ein Kaby-Prozessor, darüber hinaus konnte die Leistung der Tiefenkameras erheblich gesteigert werden.

Ian Hamilton von Upload VR hatte Gelegenheit, Project Alloy auszuprobieren. Der Techjournalist bemängelt in seinem Bericht, dass die Tiefensensoren nicht in der Lage sind, den Raum in Echtzeit zu scannen. Stattdessen muss man warten, bis der Scanvorgang einmal vollständig durchlaufen ist. Als er sich die VR-Brille aufsetzte, waren Objekte der realen Umgebung in digitale Objekte verwandelt. Aus einem real vorhandenen Tisch war eine Art Portal geworden, während die Möbel drumherum zu Kisten wurden.

Problematisch wurde es, als der Techjournalist sich zu bewegen kann, da die realen Objekt und ihre virtuellen Gegenstücke auseinanderdrifteten. Als ein Ergebnis davon stieß Hamilton gegen einen realen Tisch, obwohl dieser, durch die VR-Brille gesehen, gar nicht an dieser Stelle sein sollte. Bewegungen des Kopfes in die Tiefe hinein seien jedoch korrekt erfasst und in die Virtual Reality übertragen worden.

Ein anderer Journalist von PCWorld berichtet über Alloy, dass der gescannte Raum vor der Demonstration vollständig in die VR-Brille geladen wurde und dass die Tiefenkameras Intel zufolge für die Demonstration deaktiviert wurden. Dies würde den starken Drift erklären, zugleich aber auch die Frage aufwerfen, weshalb Intel die Grundfunktion seiner VR-Brille zu Demozwecken deaktiviert.

| Featured Image: Intel