0

Apple kauft Spezialisten für Gesichtserkennung

von Matthias Bastian26. November 2015

Apple hat das Unternehmen Faceshift aufgekauft. Das Start-Up aus Zürich hat eine Technologie entwickelt, mit der reale Gesichtsausdrücke in Echtzeit auf virtuelle Avatare übertragen werden können.

Laut Quellen des US-Magazins Techcrunch war Apple schon seit Anfang des Jahres an Faceshift interessiert, der Kauf ging aber erst vor wenigen Wochen über die Bühne. Ein offizielles Statement von Apple dazu gibt es nicht, aber die Webseite des Start-Ups ist mittlerweile offline und nur noch über Web-Archive zugänglich. Vor Faceshift kaufte Apple das schwedische Unternehmen Polar Rose, auf Gesichtserkennung spezialisiert, und PrimeSense aus Israel, die Technologie für 3D-Tracking entwickeln. Eine größere Akquisition war die der deutschen Augmented-Reality-Spezialisten von Metaio. Betrachtet man diese Akquisitionen im Kontext von neuen Patenten und Stellenausschreibungen dürfte klar sein: In Cupertino wird fleißig an Virtual- oder Augmented-Reality-Lösungen gebaut. Denn im Grunde hat Apple jetzt alles beisammen, was es für gute Social-VR- oder AR-Lösungen braucht: Know-How über die Bewegungserkennung, die Möglichkeit, mit Mimik und Gestik zu arbeiten und das Wissen, wie man diese Features in einer Anwendung zusammenführt. Wertige Hardware können die Kalifornier bekanntlich selbst bauen.

GIF

Was bringt Mimik in Virtual Reality?

Auch ohne, dass Apple konkrete Pläne offenbart, muss man nicht lange grübeln, um im Kontext von VR oder AR sinnvolle Anwendungsfälle für die Faceshift-Technologie zu finden. Denn Emotionen, die über die Mimik transportiert werden, spielen auch im virtuellen Raum eine wesentliche Rolle – sowohl in der Interaktion mit rein digitalen Charakteren, die so programmiert sind, dass sie auf ein Lächeln oder Augenkontakt reagieren, als auch mit anderen Menschen via Avatare. Was bei einfachen 2D- oder 3D-Grafiken wie Second Life oder Playstation Home noch einigermaßen mit Smileys oder vorgefertigen Animationen kompensiert werden kann, würde bei (semi-)realistischen Darstellungen in Virtual Reality schnell im “Uncanny Valley” landen: Avatare oder 3D-Scans von Menschen, die ausdruckslos in die Leere starren und nur abrupt übertrieben Emotionen ausdrücken, machen uns eher Angst als dass sie uns Verweilen einladen. Immerhin haben wir in der virtuellen Realität keinen schützenden Monitor vor uns, sondern sehen dem Gegenüber unmittelbar in die virtuellen Augen. Um diesen negativen Effekt zu verhindern und die Interaktion mit Avataren lebendiger wirken zu lassen, experimentiert beispielsweise die Alpha-Version von Oculus Social mit “simulierten Augenbewegungen” in Ergänzung zu den Kopfbewegungen, die dank Headtracking ohnehin in VR übertragen werden können.

Das große Fragezeichen: Wie liest man die Mimik aus, wenn Augen und Nase von einer VR- oder AR-Brille verdeckt werden? Die bisherigen gezeigten Demos funktionieren nur, wenn das Gesicht vollständig sichtbar ist. Oculus sponsort Forschungsarbeiten, die sich mit einer, betrachtet man die Demos oberflächlich, fast identischen Technologie beschäftigen. Diese wurde in Kombination mit dem Oculus Rift DK2 gezeigt, allerdings werden dementsprechend auch nur Mundbewegungen korrekt erkannt – die restlichen Bewegungen der Gesichtsmuskeln werden von einer Software interpretiert und ergänzt. Übrigens: Auch Intel bietet mit RealSense 3D-Kameras und Software an, um Gesichter oder auch Hand- und Fingerbewegungen zu erkennen.

#Apple rüstet auf und kauft EU-IT-Unternehmen für Gesichts- und Bewegungserkennung.… Klick um zu Tweeten

| SOURCE: Techcrunch
| FEATURED IMAGE: Faceshift / Apple (Screenshot aus YouTube-Video)
| GIF: Faceshift / Apple (Szene aus YouTube-Video)