Google kauft Startup Flutter für Kinect-ähnliche Gestensteuerung

Tam Hanna 4. October 2013 1 Kommentar(e)

Flutter erlaubt die Nutzung der Webcam zur Steuerung des Computers – Google hat das Unternehmen vor kurzer Zeit um 40 Millionen US-Dollar aufgekauft.

Die im iTunes Store erhältliche Flutter-App kostet je nach Dollar-Kurs etwas mehr oder etwas weniger als fünf Euro. Sie erlaubt die Fernsteuerung diverser am Mac laufender Applikationen, eine Windows-Version wurde vor wenigen Tagen ebenfalls freigeschaltet.

Die Flutter-App nutzt die Webcam zur "Hand-Erkennung" (Quelle: Flutter)

Die Flutter-App nutzt die Webcam zur “Hand-Erkennung” (Quelle: Flutter)

Noch ist nicht klar, was Google mit der aufgekauften Technologie vorhat. Neben der Implementierung am Smartphone wäre es auch vorstellbar, dass sich Chrome und Co in Zukunft ohne Tastatur und Maus steuern lassen – eine im Fotodienst Picasa angelegte Gallerie könnte dann auch vom Sofa aus angehalten und/oder fortgesetzt werden.

An sich ist die Idee der Gestensteuerung alles andere als neu. Microsoft’s Kinect-Sensor bietet seit Jahren ähnliche Möglichkeiten (Infos z.B. hier) – die dort zum Einsatz kommende Laserscan-Technologie erlaubt extrem genaue Abtastungen der Umgebung.

Laserscanner erlauben das Ermitteln sogenannter Depth Maps - diese enthalten Informationen über den Abstand der jeweiligen Objekte zum Sensor (Bildquelle: Tamoggemon Holding k.s. / dpunkt.verlag)

Laserscanner erlauben das Ermitteln sogenannter Depth Maps – diese enthalten Informationen über den Abstand der jeweiligen Objekte zum Sensor (Bildquelle: Tamoggemon Holding k.s. / dpunkt.verlag)

Leider ist das mit vergleichsweise hohen Kosten verbunden. Zudem lässt sich der Sensor aufgrund des hohen Platzbedarfs nicht ohne Weiteres in Notebooks und Telefone integrieren. Die allseits weit verbreiteten Webcams liefern nur einen zweidimensionalen Farbstrom zurück, der sich allerdings mit diversen algorithmischen Methoden beackern lässt.

Dabei kommt meist klassische Kontrastdetektierung zum Einsatz. Sie versucht, sog. “Kanten” im Bild zu finden und nutzt diese dann als Grenzen für die verfolgten Elemente. Wird ein als “Hand” erkannter Sektor größer oder kleiner, so weist dies auf eine Näherung oder Entfernung hin – eine Bewegung nach links und rechts wird als Translation abgebildet.

Im Bereich der Bildverarbeitung gilt Kontrastdetektierung als vergleichsweise ungenau. Trotzdem scheint sie durchaus brauchbare Resultate zu liefern – das Erkennen einer Hand ist eine vergleichsweise einfache Aufgabe, die mit der vom Kinect durchgeführten skelettalen Analyse keinesfalls mithalten kann.

Würdet ihr euren Computer oder euer Snmartphone mit Gesten steuern? Oder handelt es sich dabei – eurer Meinung nach – um ein in der Praxis völlig nutzloses Gimmick? Eure Meinung interessiert uns…

Quelle: Golem

auf Facebook teilen auf Google+ teilen auf Twitter teilen

Kennst du schon unsere Magazine?

Alle Magazine anzeigen