0

Google Project Soli: Radargerät im Ein-Cent-Format

von Carolin Albrand9. Juni 2015

Technik verbindet. Theoretisch. Im Alltag unterbrechen Geräte wie Tablet, MP3-Player und Smartphones regelmäßig zwischenmenschliche Interaktionen. Die ältere Dame versteht den jungen Mann im Bus nicht, der ständig auf sein Handy starrt. Das kleine Kind will, dass die Mama ihm beim Spielen zusieht, aber die muss ihre Mails checken. Der Vater würde gerne von seinen Kindern hören, wie ihr Tag war, aber die sitzen gebannt vor ihren Tablets am Tisch. Unternehmen möchten diese Barriere beseitigen und die technischen Helfer und Spielereien wie Smartphone, Tablet und Co. noch kleiner und unauffälliger gestalten, um sie besser in unseren Alltag zu integrieren. Die Lösung für dieses Problem scheint in der Verbindung mit Alltagsgegenständen zu liegen. Dinge, die der Nutzer ohnehin am Körper trägt, werden zu Mini-Computern – so genannte “Wearables”. Doch diese brauchen auch neue Interfaces für Bedienung und Navigation.

Project Soli erkennt Hand- und Fingergesten

Bei Project Soli handelt es sich um eine Art Radargerät mit dem sich elektronische Geräte ohne direkte Berührung allein über Gesten steuern lassen. Die Forschungsabteilung von Google Advanced Technology And Projects, kurz ATAP, hat das Gerät innerhalb von nur zehn Monaten von einem Prototypen, groß wie ein Schuhkarton, in einen kleinen Chip verwandelt, der in etwa die Größe eines Cent-Stücks hat und so problemlos am Körper getragen werden könnte. Die Soli-Technologie kann in Wearables integriert werden und funktioniert angeblich auch, wenn sie beispielsweise von Kleidungsstücken verdeckt ist.

Googles Radarsystem

Project Soli erfasst so genannte Reflexionsmuster von elektromagnetischen Wellen. Das Gerät sendet Wellen aus und misst, wann und wie diese von einem Gegenstand zurückgeworfen werden. Es erinnert an das Prinzip, mit dem sich Fledermäuse auch auf engstem Raum noch orientieren können. Batman wäre stolz.

GIF

Daraus entstehen Muster, die das Gerät bestimmten Hand- oder Fingerbewegungen zuordnen kann, um diese dann in einen Befehl umzuwandeln. Jede Bewegung, wie das Ballen der Hand zur Faust oder das Reiben zweier Fingerspitzen, verändert das Reflexionsmuster und erteilt dem Gerät einen Befehl, ohne, dass es berührt werden muss.

Die Vielseitigkeit der menschlichen Hand

Das Radar erfasst die gesamte Hand, aber auch jeden einzelnen Finger. Dadurch können alltägliche Bewegungen in der Luft simuliert werden wie etwa das Drücken eines Knopfes, das Wischen über einen Touchscreens oder das Regeln der Lautstärke über eine Drehbewegung. Das bietet auch für neue Interaktionsmöglichkeiten in Virtual- und Augmented-Reality-Anwendungen großes Potenzial.

GIF

Inwiefern Google die Technolgie einsetzen will, ist bislang nicht bekannt. Auch wenn sich die Technik für die Nutzung von kleinen und kleinsten Smartphones oder Wearables eignet, scheint Google, blickt man zurück auf die  i/o 2015, sehr stark an Virtual-Reality-Technologien interessiert zu sein. Im Gegensatz zur Gestensteuerung von Leap Motion, die nur in Kombination mit einem stationären Kamerasystem funktioniert, ist Googles Variante deutlich flexibler einzusetzen. Die neue Gestensteuerung passt daher perfekt zu Googles Cardboard, einer möglichen Neuauflage von Google Glass oder Project Tango, dem neuen intelligenten Google-Tablet, das über Sensoren Umgebungsvariablen erkennen kann.

ATAP Demo-Video von Project Soli

| SOURCE: RoadtoVR
| IMAGES: YouTube

 

| Anzeige: