0

Augmented Reality: Project Tango lernt die Umgebung auswendig

von Matthias Bastian21. Mai 2016

Schon seit einigen Jahren bastelt Google an der Augmented-Reality-Technologie “Project Tango”, mit der man durch das Smartphone- oder Tablet-Display virtuelle Objekte im Raum betrachten kann. Mittlerweile kann die Technologie noch viel mehr.

Damit die virtuellen Objekte perspektivisch korrekt im Raum angezeigt werden, also beispielsweise soll die virtuelle Kaffeetasse auf dem realen Kaffeetisch platziert werden und nicht einfach nur frei in der Luft schweben, kombiniert das Tango-System die Daten von verschiedenen Sensoren. Verbaut sind neben einem speziellen Chip für das maschinelle Sehen auch Messeinheiten für Beschleunigung und Rotation sowie eine Infrarotkamera, die mit Hilfe eines Mini-Projektors, der strukturiertes Infrarotlicht aussendet, die Tiefe des Raumes misst. An der verbauten Hardware hat sich seit dem vergangenen Jahr nichts gravierendes verändert, immerhin ist sie jetzt soweit, dass sie in ein Consumer-Smartphone verbaut werden kann. Ein erstes Tango-Gerät von Lenovo erscheint im Sommer.

Softwareseitig tut sich dafür umso mehr. Zum einen unterstützt Googles kommendes Betriebssystem Android N Project Tango nativ, die entsprechenden Programmierschnittstellen sind in der Android-Entwicklungsumgebung integriert. Tango-Anwendungen laufen natürlich nur auf Smartphones, die auch die notwendigen Sensoren verbaut haben.

Zum anderen konnte Googles Forschungsabteilung der Hardware neue Funktionen beibringen. So kann das Tango-System mit einem virtuellen Lineal Distanzen korrekt vermessen – das würde im Heimgebrauch den Zollstock überflüssig machen. Einfach das Smartphone auf die gewünschte Stelle halten, das Gerät dockt automatisch an die Begrenzungen eines Objektes an, und die Abstände zwischen zwei markierten Stellen werden korrekt ausgemessen. Praktisch!

GIF Die neuen Technologien, die Google im Project Tango erforscht, sind wichtige Bausteine für die Zukunft von Virtual und Augmented Reality. Das zeigen auch die neuen Demos von der I/O 2016.

Area Learning ermöglicht stabileres Tracking und Multi-User-Anwendungen

Ein neues Feature ist das Area Learning. Dabei orientiert sich das Gerät an “hunderten Objekten in der Umgebung”, um die eigene Position im Raum korrekt zu bestimmen. Mit diesem System läuft das Tracking auch dann stabil, wenn die Sensoren kurz verdeckt werden oder durch eine Erschütterung falsch messen. Auch das sogenannte “Drifting”, bei dem die digitalen Objekte sich über die Zeit leicht verschieben, soll durch das Area Learning verhindert werden. Theoretisch können auch mehrere Tango-Geräte im gleichen Raum die einmal gelernten Daten teilen und sich so gegenseitig wahrnehmen. Das ermöglicht die gemeinsame Nutzung von VR- und AR-Anwendungen über verschiedene Endgeräte hinweg.

Dass Project Tango das Raumtracking auch in der Tiefe bereits korrekt beherrscht – ähnlich wie Microsofts Hololens – präsentierte Googles Johnny Lee auf der I/O 2016. Mit dem Tango-Smartphone in der Hand bewegte er sich völlig frei durch eine in Echtzeit gerenderte 3D-Umgebung. Offenbar arbeitet auch der Entwickler der kuriosen “Katamari Damacy”-Spiele bereits an einem Tango-Projekt für mehrere Nutzer, ein erstes GIF zeigt das Tiefentracking im Einsatz.

GIF Die neuen Technologien, die Google im Project Tango erforscht, sind wichtige Bausteine für die Zukunft von Virtual und Augmented Reality. Das zeigen auch die neuen Demos von der I/O 2016.

Es wird nur eine Frage der Zeit sein, bis dieses Feature auch in einer mobilen VR-Brille verbaut wird und völlig kabellose VR-Erlebnisse samt Raumtracking ermöglicht. Googles VR-Chef Clay Bavor deutete am Ende seiner Keynote auf der I/O 2016 an, dass das neue Virtual-Reality-Projekt “Daydream” in Zukunft auf die Tango-Technologie setzen will.

Problematisch ist noch der hohe Anspruch an die Rechenleistung und der damit einhergehende Akkuverbrauch samt Wärmeentwicklung. Auch die vielen Variablen durch unterschiedlichen Lichteinfall bereiten den Google-Ingenieuren Kopfzerbrechen. Ein Raum sieht frühmorgens anders aus als im Abendlicht, das kann Tango noch aus dem Takt bringen. Endziel von Googles Visual-Computing-Forschung ist es, dass die mobilen Geräte ihre Umgebung so gut sehen und verstehen wie das menschliche Auge.

| Featured Image: Google