Uni Bonn: PC-Steuerung durch Handbewegung

Verfahren macht Datenhandschuh überflüssig

Informatiker der Universität Bonn haben ein Verfahren entwickelt, mit dem es möglich ist, 3D-Anwendungen durch bloße Handbewegungen zu steuern. Die Verwendung eines Datenhandschuhs ist bei der von den Forschern „Handtracking“ genannten Methode nicht mehr notwendig. „Unser System funktioniert mit drei Camcordern, die die Bewegung der Fingerspitzen verfolgen“, erklärt Markus Schlattmann, wissenschaftlicher Mitarbeiter der Arbeitsgruppe „Computer, Grafik„. „Das Ganze geht präzise, schnell und intuitiv“, sagt der Informatiker. Zur Demonstration steuert Schlattmann ein virtuelles Flugzeug mit bloßen Handgesten über die Alpen.

Jede der drei Kameras ist an einen Computer angeschlossen, der die Handbewegungen verarbeitet und an einen zentralen PC weitersendet. „Die drei Rechner sind notwendig, weil die Ansteuerung der Camcorder nicht anders möglich ist. Von der Rechenleistung her wären sie allerdings nicht notwendig“, so Schlattmann. „Der zentrale Rechner arbeitet mit einer Geforce-8800-Grafikkarte. Das System läuft prinzipiell auf normaler Hardware. Bei Verwendung von drei normalen Webcams kann unser Handtracking-Verfahren auch auf Privat-Computern eingesetzt werden.“

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz. „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“ Mit einem einzigen Handschuh ist es zudem oft nicht getan – schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei flexibler, sagen die Forscher. Egal ob Kinderhände oder jene von Erwachsenen, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist.

Zudem muss das Verfahren nicht initialisiert werden. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen. „Das System funktioniert mittlerweile sehr gut, wir haben jedoch noch einige Ideen und Verbesserungspläne“, sagt Schlattmann.

Das Verfahren soll auch nicht nur für die Gamer-Gemeinde interessant sein, denn intuitive und flexible Eingabegeräte seien etwa in der Medizin gefragt. Beispielsweise fallen in der Computertomographie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden.

Themenseiten: Hardware

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Uni Bonn: PC-Steuerung durch Handbewegung

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *