2

Neues Trackingverfahren soll Emotionen an den Augen ablesen

von Matthias Bastian31. Juli 2017

Google-Forscher basteln an einem Verfahren, bei dem anhand kleiner Bewegungen der Augenmuskulatur die Emotion des VR-Brillenträgers interpretiert werden kann.

Das Verfahren benötigt keine externen Sensoren, sondern verlässt sich auf in der VR-Brille integrierte Infrarotkameras, die die Augenbewegungen messen. Diese Eye-Tracking-Technologie könnte in der zweiten Generation VR-Brillen standardmäßig verbaut sein, weil sie zahlreiche Vorteile im Bereich Interfaces und für die Performance bietet.

Die Forschungsabteilung von Google veröffentlichte eine Demo (siehe unten), die zeigt, wie anhand der Blickrichtung, der Position der Augenbrauen sowie den Bewegungen der Augenfalten grundlegende Gesichtsausdrücke und Emotionen abgeleitet werden können. Mit dieser einfachen Mimikerkennung hätte Eye-Tracking-Technologie ein weiteres Einsatzgebiet.

Die Gesichtsausdrücke und Emotionen können in Echtzeit auf die Mimik eines virtuellen Avatars übertragen werden und so die soziale Interaktion im virtuellen Raum verbessern. Entwicklern oder Werbetreibenden stünden zusätzliche Daten zur Verfügung, wie Menschen auf ihre Inhalte reagieren.

Sind geschätzte Emotionen gut genug für Social-VR?

Besonders fein ist das Verfahren nicht abgestuft, beispielsweise können Überraschung oder Freude recht sicher erkannt werden, komplexere Gesichtsausdrücke wie Schadenfreude jedoch nicht. Offen ist die Frage, ob solche einfachen Emotionen die Interaktion in VR wirklich aufwerten oder eher für Irritationen und Missverständnisse sorgen.

Man denke nur an Emoticons auf Smartphones, die je nach Betriebssystem oder App-Version leicht unterschiedlich aussehen und dadurch zum Teil schon völlig andere Gefühle und Erwartungshaltungen transportieren (bspw. weinen im Vergleich zu vor Lachen weinen).

Oculus-Technikchef Michael Abrash geht davon aus, dass die sehr detailgetreue Digitalisierung menschlicher Emotionen ein Killer-Feature für Virtual Reality und im gleichen Moment noch weit von der Marktreife entfernt ist.

| Via: Techcrunch | Featured Image: Google Research

Empfohlene Artikel: