EyeSight: Android mit Handgesten steuern

Von am 9. Juni 2010  

Bitte keine unvorsichtigen Bewegungen

Die Sprachsteuerung kennt Android bereits, mit EyeSight kommt kommt die Steuerung durch Gesten mit der Hand hinzu. Es erinnert an die Bewegungssteuerung von Spielekonsolen und setzt eine Kamera auf der Vorderseite des Android-Geräts voraus. Bildverarbeitung in Echtzeit und Algorithmen setzen einfache Handgesten in Befehle um wie Stummschaltung oder die Navigation zwischen GPS-Menüs.

EyeSight Mobile Technologies bezeichnet es als Natural User Interface (NUI), das als reine Softwarelösung entwickelt wurde für Handys und andere Geräte, optimiert für mobile Plattformen mit geringem Bedarf an CPU-Leistung und Speicher. Das israelische Startup-Unternehmen ist „spezialisiert in futuristischen, berührungsfreien Interfaces für mobile Geräte“ und möchte „die Art und Weise revolutionieren, in der Menschen mit ihren Geräten umgehen“.

Eine ähnliche Lösung bietet EyeSight bereits für Nokias Symbian-Plattform an. EyeSight für Android wurde entwickelt, um mit zahlreichen verschiedenen Anwendungen zu arbeiten – das Unternehmen will offenbar mit Geräteherstellern ins Geschäft kommen, die sich mit der EyeSight-Bedienung abheben wollen.

Spielerei oder mehr? Das Demovideo lässt zumindest ahnen, wie sich eine berührungsfreie Bedienung nützlich machen könnte.

Abbildung: EyeSight

Diese Icons verlinken auf Bookmark Dienste bei denen Nutzer neue Inhalte finden und mit anderen teilen können.
  • Facebook
  • Google Bookmarks
  • TwitThis