0

Natürliche Interfaces: Wie bedienen wir AR- und VR-Anwendungen?

von Matthias Bastian14. September 2016

Die nächste Generation von Computern birgt im Kern zwei grundlegende Neuerungen: Zum einen werden Inhalte dreidimensional erfahren. Zum anderen verändern sich die Interfaces, durch die wir mit diesen räumlichen Inhalten interagieren.

Im Grunde ist unser Körper das natürlichste Interface, über das wir verfügen. Er ermöglicht uns, auf vielfältige Weise mit Menschen und Gegenständen, also der Realität, zu interagieren. Aber nicht für jede Art von digitalem Inhalt wird sich ein solches Interface eignen. Häufig ist eine Abstraktion notwendig. Beispielsweise ist eine Tastatur schneller bedient, als ein Buchstabe in die Luft gezeichnet. Insgesamt wird die Auswahl an Interfaces aber steigen.

„Aktuell verändert man Polygone oder Objekte mit einer Maus. Die Maus ist ein 2D-Eingabegerät, die Welt ist aber 3D. Das kann das menschliche Gehirn nicht optimal verarbeiten. In VR ändert sich das schlagartig, man kann einfach nach etwas greifen, es formen, auf die Oberflächen malen, so wie es ein echter Maler oder Bildhauer tun würde.“ Tim Sweeney, CEO Epic Games ggü. Recode

Natürliche Interfaces sind unwahrscheinlich mächtig. Sie machen Interaktionen mit digitalen Inhalten auch jenen Menschen zugänglich, die Maus und Tastatur normalerweise eher abschrecken. Nehmen wir meine Mutter als Beispiel: Programme, die sie per Maus und Tastatur kaum beherrschen würde, bedient sie mit den 3D-Controllern von HTC Vive auf Anhieb – und hat dabei sogar Spaß.

Eine komplizierte Einführung ist nicht nötig: Sie geht auf digitale Objekte zu, hebt sie hoch, dreht sie, vergrößert und verkleinert sie. Sie interagiert mit ihnen wie von der Anwendung vorgesehen. Mit Maus und Tastatur würde ihr das nicht mit der gleichen Selbstverständlichkeit gelingen.

Auf der Suche nach einer neuen Sprache für AR- und VR-Interfaces

In den kommenden Jahren wird sich für die Art und Weise, wie wir mit digitalen Inhalten in AR und VR interagieren, eine neue Sprache herausbilden. So wie wir sie beispielsweise vom Smartphone oder PC kennen: Unabhängig von der App erwarten wir, dass eine Pinch-to-Zoom-Geste das Bild vergrößert, klicken wir mit der rechten Maustaste am PC, begegnet uns meist ein Kontextmenü.

Ein Bestandteil dieser Sprache für AR und VR-Anwendungen wird sein, dass Menüs und Optionen in vielen Fällen gar nicht mehr als solche wahrgenommen werden. Nehmen wir die VR-Tourismus-App Realities als Beispiel. Hier wählt man seinen Zielort nicht aus einer Liste aus. Stattdessen sieht man einen großen Globus vor sich und dreht diesen, bis man seinen Wunschort gefunden hat. Tippt man mit dem virtuellen Finger darauf, wird man zur gewünschten Destination teleportiert.

Innerhalb der Kreativitätswerkstatt Tvori entledigt man sich digitaler Objekte ganz einfach dadurch, dass man sie greift und in einen Papierkorb wirft, der neben dem Werktisch steht. Und in Jon Favreaus Gnomes & Goblins muss man mit einer brennenden Kerze ein Straßenschild erhellen, um den Wegweiser ins Goblin-Dorf zu finden. Früher hätte der “Start”-Knopf die gleiche Aktion ausgelöst.

Bislang haben solche natürlichen Interfaces noch Seltenheitswert. Bei Microsofts Hololens navigiert man nach wie vor durch zweidimensionale Menüs und Fenster wie am Monitor und es kommt immer noch eine Art Mausersatz zur Anwendung. Mit dem drahtloser Klicker, der via Bluetooth mit der Augmented-Reality-Brille verbunden wird, kann man Eingaben bestätigen.

Navigation mit Fingerspitzengefühl

Ein US-Blogger macht einen Vorschlag, wie die Bedienung eines Augmented-Reality-Menüs deutlich natürlicher ablaufen könnte. Dabei werden die einzelnen Fingerspitzen zu einer Art App-Launcher. Betrachtet man die eigenen Hände, sieht man auf jedem Finger eine zuvor zugewiesene Anwendung. Wählt man eine Anwendung aus, werden weitere Funktionen ebenfalls auf den Fingerspitzen angezeigt.

I've got the whole app in my hand: Kontextmenü auf den Fingerspitzen. BILD: Imagineality

I’ve got the whole app in my hand: Kontextmenü auf den Fingerspitzen. BILD: Imagineality

Doch wie klickt man die Icons ohne Maus an? Ganz einfach: Die kommende Generation VR- und AR-Geräte wird dank integrierter Eye-Tracking-Kameras die Möglichkeit zur Blicksteuerung bieten. Man schaut die Apps einfach an und sie öffnen sich.

| Featured Image: Imagineality