1

Oculus Rift: Palmer Luckey spricht über Immersion und Präsenz *Update*

von Matthias Bastian8. Juli 2016

Update vom 8. Juli 2016:

Bei Twitter ergänzt der Oculus-Gründer seine Ausführungen zur Zukunft der virtuellen Realität. Noch müsse man bei der Entwicklung von VR-Anwendungen zwar die Limitierungen aktueller VR-Systeme berücksichtigen. Langfristig solle es aber Hard- und Software geben, die jede Art von Erfahrung ermögliche und nicht “nur eine limitierte Teilmenge”. Die momentan erhältlichen VR-Erfahrungen sollen daher kein akkurater Indikator dafür sein, wann VR-Technologien eine perfekte Simulation bieten können.

Ursprüngliche Meldung vom 6. Juli 2016:

Oculus-Rift-Erfinder Palmer Luckey sieht zwei kritische Aspekte, die bei aktuellen Virtual-Reality-Technologien noch verbessert werden müssen. Für ein perfektes Präsenzgefühl brauche es haptisches Feedback und eine glaubhafte Übertragung von Mimik und Körpersprache in die virtuelle Realität.

Auf dem Internet- und Gaming-Festival RTX 2016 in Austin sprach Palmer Luckey über das “nächste Level der Immersion”. Ein wichtiger Bestandteil davon soll das Handtracking samt haptischem Feedback werden. Die kommenden 3D-Controller Oculus Touch hätten bereits Sensoren und Motoren verbaut, die eine relativ akkurate Repräsentation der eigenen Hände in der virtuellen Realität erlauben würden. Die in Touch verbauten Vibrationsmotoren für haptisches Feedback bezeichnet Luckey als “leistungsfähiger als die der meisten anderen Gamepads, die schon auf dem Markt sind.” Das würde aber noch nicht ausreichen, um die Interaktion mit jedem virtuellen Objekt authentisch zu repräsentieren. Das haptische Feedback müsse in Zukunft so ausgebaut werden, dass man zukünftig durch rein digitale Objekte nicht mehr einfach hindurchgreifen könne.

Simulierte Körpersprache für die virtuelle Realität

Für ein besseres Präsenzgefühl müssten außerdem die Trackingfähigkeiten der aktuellen VR-Systeme ausgebaut werden. Das gelte speziell für das Tracking der Mimik und der Körpersprache. Bislang könne man nur Kopf- und Handbewegungen in die virtuelle Realität übertragen und Körperbewegungen anhand der Inverskinematik grob vorhersehen. Der Begriff kommt aus der Robotik und beschreibt die Möglichkeit, die Position der Arme und Gelenkwinkel anhand von Posen abzuleiten. Hält man beispielsweise die Hand in einer bestimmten Position, ergibt sich daraus automatisch auch eine bestimmte Stellung des Hand-, Ellenbogen- und Schultergelenks.

Gerade im Kontext von Social-VR solle diese Methode schon ausreichen, um relativ glaubhafte soziale Interaktion zu ermöglichen. “Es muss nicht perfekt sein, nur plausibel.” Das gelte auch für simulierte Augenbewegungen: “Smarte Algorithmen und gutes Design können glaubhaftere Erfahrungen ermöglichen als tatsächliches Eye-Tracking.” Luckey geht davon aus, dass solche Tricks in  Zukunft vermehrt eingesetzt werden, um auch in der virtuellen Realität eine natürliche Körpersprache zu ermöglichen.

| Source: RTX 2016