Categories: InnovationWorkspace

Roboter lernen Gesten und Gesichtsausdrücke verstehen

Forscher des Bristol Robotics Lab (BRL) der University of Bristol und der University of West England haben mit „Cooperative Human Robot Interaction Systems“ (Chris) ein Projekt gestartet, um Robotern neue Einsatzmöglichkeiten zu eröffnen. Dazu sollen die Maschinen lernen, Gesten, Blicke und andere Formen der menschlichen Rückmeldung zu interpretieren.

„Der wesentliche Aspekt des Projekts sind die Grundlagen der Anwendung mit menschlicher Interaktion“, erklärt BRL-Direktor Chris Melhuish. Ziel sei es, die kognitiven Fähigkeiten der Roboter zu verbessern.

Automatisierte, autonome Roboter haben sich den Wissenschaftlern zufolge in Produktionsanlagen bereits in der Praxis bewährt. Problematischer sei der Einsatz in Bereichen, die eine Interaktion und Zusammenarbeit mit Menschen erfordern, beispielsweise in der Küche oder im Pflegebereich, so Melhuish. „Ein Roboter, der stark genug ist, um nützlich zu sein, ist auch stark genug, um gefährlich zu sein.“

Daher wollen die Forscher im Rahmen des Chris-Projekts Robotern beibringen, ähnlich wie Menschen Gesichtsausdrücke, Körperhaltung, Gesten und Augenkontakte zu interpretieren. Zusammen mit einem Verständnis der Aufgabenstellung könne so gewährleistet werden, dass Roboter ihre Arbeit tun, ohne Menschen zu gefährden.

Als ein Beispiel nennt Melhuish das gemeinsame Kochen einer Suppe: „Der Roboter muss nicht nur das Ziel „Suppe machen“ verstehen, sondern auch, wie stark er umrühren soll.“ Es sei auch nötig, dass der Roboter den Ausdruck von Schmerz auf dem Gesicht des Menschen erkennt, falls dieser mit heißer Suppe bespritzt werde. Zudem müsse der Roboter die gehobene Hand als Zeichen interpretieren, dass etwas genug ist, beispielsweise wenn er durch ein einfaches Kommando aufgefordert wird, mit dem Rühren aufzuhören.

„Ziel des Projekts ist es, ausgereifte Regeln für Service-Roboter zu erreichen, die eng mit Menschen zusammenarbeiten“, erklärt Melhuis. Der Fokus werde dabei auf nichtsprachlicher Kommunikation liegen, doch rudimentäre Kommandos wie „Stopp“ oder „Hier“ würden ebenfalls berücksichtigt.

ZDNet.de Redaktion

Recent Posts

DSL oder Kabel – Welcher Anschluss passt zu Ihnen?

Internet in den eigenen vier Wänden ist heutzutage nicht mehr wegzudenken. Denn egal, ob Homeoffice…

35 Minuten ago

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

5 Stunden ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

5 Stunden ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

5 Stunden ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

20 Stunden ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

22 Stunden ago