Categories: ForschungInnovation

Chat-Bot Tay: Microsoft entschuldigt sich

Microsoft hat sich für rassistische und zum Völkermord aufrufende Äußerungen seines Chat-Bots Tay entschuldigt und ihn offline genommen. Die Anwendung war erst vor wenigen Tagen vorgestellt worden und sollte eine 19-Jährige verkörpern, die Dialoge führte und von ihren Gesprächspartnern lernte. Als auf künstlicher Intelligenz basierender Bot war Tay für 18- bis 24-Jährige gedacht, den laut Microsoft „dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA“.

„Wir bedauern zutiefst die unbeabsichtigt anstößigen und verletztenden Tweets von Tay“, heißt es in einer Stellungnahme Microsofts, nachdem der Teenager-Bot den Holocaust geleugnet, Hitler gelobt, gegen Feminismus gehetzt und zur Vernichtung Mexikos aufgerufen hatte. „Sie repräsentieren weder uns noch das, wofür wir stehen, oder die Entwicklungsziele von Tay.“ Der Bot soll erst wieder zurückkommen, wenn die Microsoft-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“.

Das Unternehmen verweist auf die vorhergehende AI-Anwendung XiaoIce, die in China als Chat-Bot von rund 40 Millionen Menschen angesprochen wurde. Dabei kam es offenbar nicht zu ähnlichen Problemen, wie auch kaum zu erwarten in einem autoritären Staat, der Social Media flächendeckend überwacht und zensiert. Microsoft führt außerdem an, vor dem Tay-Start in den USA umfangreiche Nutzerstudien mit verschiedenen Gruppen durchgeführt und auch Filter implementiert zu haben, um eine positive Nutzererfahrung zu gewährleisten.

Twitter sei der logische Ort für die künstliche Intelligenz gewesen, um durch massenhafte Interaktion mit Nutzern zu lernen und immer besser zu werden. Allerdings erwiesen sich Nutzer als fähig, Tay zu manipulieren und zu den Aussagen gehässiger Internet-Trolle zu bewegen. „Unglücklicherweise nutzten in den ersten 24 Stunden nach dem Online-Start eine begrenzte Zahl von Menschen eine Schwachstelle in Tay aus“, beschreibt Microsoft den Hergang. „Obwohl wir uns auf viele Arten möglichen Missbrauchs des Systems vorbereitet hatten, haben wir bei diesem spezifischen Angriff etwas Entscheidendes übersehen. Im Ergebnis tweetete Tay absolut unangebrachte und verwerfliche Wörter und Bilder.“

„AI-Systeme nähren sich sowohl von positiven wie negativen Interaktionen mit Menschen“, erklärt Microsoft Research und sieht deshalb noch erhebliche Herausforderungen in der AI-Forschung vor sich. Übersehen hatten die Forscher allerdings schlicht, dass die angebotene Funktion „Repeat after me“ Trollen unter den Nutzern erlaubte, Tay beliebige Parolen vorzugeben und diese wiederholen zu lassen. Das sprach sich schnell herum und führte zu einer Flut von rassistischen, fremdenfeindlichen und homophoben Aussagen, die der Chat-Bot in sein Repertoire aufnahm. Mit künstlicher Intelligenz hatte das offenbar wenig zu tun – Tay verhielt sich eher wie ein einfacher Chat-Bot in der Art von Eliza, einem schon 1966 entwickelten Computerprogramm.

ZDNet.de Redaktion

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

1 Tag ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

1 Tag ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

1 Tag ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

2 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

2 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

2 Tagen ago