Roboter lernen Gesten und Gesichtsausdrücke verstehen

Forscher wollen sichere Zusammenarbeit mit Menschen ermöglichen

Forscher des Bristol Robotics Lab (BRL) der University of Bristol und der University of West England haben mit „Cooperative Human Robot Interaction Systems“ (Chris) ein Projekt gestartet, um Robotern neue Einsatzmöglichkeiten zu eröffnen. Dazu sollen die Maschinen lernen, Gesten, Blicke und andere Formen der menschlichen Rückmeldung zu interpretieren.

„Der wesentliche Aspekt des Projekts sind die Grundlagen der Anwendung mit menschlicher Interaktion“, erklärt BRL-Direktor Chris Melhuish. Ziel sei es, die kognitiven Fähigkeiten der Roboter zu verbessern.

Automatisierte, autonome Roboter haben sich den Wissenschaftlern zufolge in Produktionsanlagen bereits in der Praxis bewährt. Problematischer sei der Einsatz in Bereichen, die eine Interaktion und Zusammenarbeit mit Menschen erfordern, beispielsweise in der Küche oder im Pflegebereich, so Melhuish. „Ein Roboter, der stark genug ist, um nützlich zu sein, ist auch stark genug, um gefährlich zu sein.“

Daher wollen die Forscher im Rahmen des Chris-Projekts Robotern beibringen, ähnlich wie Menschen Gesichtsausdrücke, Körperhaltung, Gesten und Augenkontakte zu interpretieren. Zusammen mit einem Verständnis der Aufgabenstellung könne so gewährleistet werden, dass Roboter ihre Arbeit tun, ohne Menschen zu gefährden.

Als ein Beispiel nennt Melhuish das gemeinsame Kochen einer Suppe: „Der Roboter muss nicht nur das Ziel „Suppe machen“ verstehen, sondern auch, wie stark er umrühren soll.“ Es sei auch nötig, dass der Roboter den Ausdruck von Schmerz auf dem Gesicht des Menschen erkennt, falls dieser mit heißer Suppe bespritzt werde. Zudem müsse der Roboter die gehobene Hand als Zeichen interpretieren, dass etwas genug ist, beispielsweise wenn er durch ein einfaches Kommando aufgefordert wird, mit dem Rühren aufzuhören.

„Ziel des Projekts ist es, ausgereifte Regeln für Service-Roboter zu erreichen, die eng mit Menschen zusammenarbeiten“, erklärt Melhuis. Der Fokus werde dabei auf nichtsprachlicher Kommunikation liegen, doch rudimentäre Kommandos wie „Stopp“ oder „Hier“ würden ebenfalls berücksichtigt.

Themenseiten: Hardware, Roboter, University of Bristol

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Roboter lernen Gesten und Gesichtsausdrücke verstehen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *