Categories: InnovationWorkspace

Roboter lernen Gesten und Gesichtsausdrücke verstehen

Forscher des Bristol Robotics Lab (BRL) der University of Bristol und der University of West England haben mit „Cooperative Human Robot Interaction Systems“ (Chris) ein Projekt gestartet, um Robotern neue Einsatzmöglichkeiten zu eröffnen. Dazu sollen die Maschinen lernen, Gesten, Blicke und andere Formen der menschlichen Rückmeldung zu interpretieren.

„Der wesentliche Aspekt des Projekts sind die Grundlagen der Anwendung mit menschlicher Interaktion“, erklärt BRL-Direktor Chris Melhuish. Ziel sei es, die kognitiven Fähigkeiten der Roboter zu verbessern.

Automatisierte, autonome Roboter haben sich den Wissenschaftlern zufolge in Produktionsanlagen bereits in der Praxis bewährt. Problematischer sei der Einsatz in Bereichen, die eine Interaktion und Zusammenarbeit mit Menschen erfordern, beispielsweise in der Küche oder im Pflegebereich, so Melhuish. „Ein Roboter, der stark genug ist, um nützlich zu sein, ist auch stark genug, um gefährlich zu sein.“

Daher wollen die Forscher im Rahmen des Chris-Projekts Robotern beibringen, ähnlich wie Menschen Gesichtsausdrücke, Körperhaltung, Gesten und Augenkontakte zu interpretieren. Zusammen mit einem Verständnis der Aufgabenstellung könne so gewährleistet werden, dass Roboter ihre Arbeit tun, ohne Menschen zu gefährden.

Als ein Beispiel nennt Melhuish das gemeinsame Kochen einer Suppe: „Der Roboter muss nicht nur das Ziel „Suppe machen“ verstehen, sondern auch, wie stark er umrühren soll.“ Es sei auch nötig, dass der Roboter den Ausdruck von Schmerz auf dem Gesicht des Menschen erkennt, falls dieser mit heißer Suppe bespritzt werde. Zudem müsse der Roboter die gehobene Hand als Zeichen interpretieren, dass etwas genug ist, beispielsweise wenn er durch ein einfaches Kommando aufgefordert wird, mit dem Rühren aufzuhören.

„Ziel des Projekts ist es, ausgereifte Regeln für Service-Roboter zu erreichen, die eng mit Menschen zusammenarbeiten“, erklärt Melhuis. Der Fokus werde dabei auf nichtsprachlicher Kommunikation liegen, doch rudimentäre Kommandos wie „Stopp“ oder „Hier“ würden ebenfalls berücksichtigt.

ZDNet.de Redaktion

Recent Posts

MadMxShell: Hacker verbreiten neue Backdoor per Malvertising

Die Anzeigen richten sich an IT-Teams und Administratoren. Ziel ist der Zugriff auf IT-Systeme.

9 Stunden ago

April-Patches für Windows legen VPN-Verbindungen lahm

Betroffen sind Windows 10 und Windows 11. Laut Microsoft treten unter Umständen VPN-Verbindungsfehler auf. Eine…

9 Stunden ago

AMD steigert Umsatz und Gewinn im ersten Quartal

Server-CPUs und Server-GPUs legen deutlich zu. Das Gaming-Segment schwächelt indes.

18 Stunden ago

Google stopft schwerwiegende Sicherheitslöcher in Chrome 124

Zwei Use-after-free-Bugs stecken in Picture In Picture und der WebGPU-Implementierung Dawn. Betroffen sind Chrome für…

2 Tagen ago

Studie: 91 Prozent der Ransomware-Opfer zahlen Lösegeld

Die durchschnittliche Lösegeldzahlung liegt bei 2,5 Millionen Dollar. Acht Prozent der Befragten zählten 2023 mehr…

2 Tagen ago

DMA: EU stuft auch Apples iPadOS als Gatekeeper ein

Eine neue Analyse der EU-Kommission sieht vor allem eine hohe Verbreitung von iPadOS bei Business-Nutzern.…

2 Tagen ago