Chat-Bot Tay: Microsoft entschuldigt sich

Ein auf künstlicher Intelligenz basierender Bot sollte auf Twitter Dialoge führen und von seinen Gesprächspartnern lernen. Für böswillige Nutzer war es einfach, Tay zur Wiederholung von rassistischen, fremdenfeindlichen und homophoben Parolen zu bewegen. Der erst vor wenigen Tagen vorgestellte Bot ist wieder offline.

Microsoft hat sich für rassistische und zum Völkermord aufrufende Äußerungen seines Chat-Bots Tay entschuldigt und ihn offline genommen. Die Anwendung war erst vor wenigen Tagen vorgestellt worden und sollte eine 19-Jährige verkörpern, die Dialoge führte und von ihren Gesprächspartnern lernte. Als auf künstlicher Intelligenz basierender Bot war Tay für 18- bis 24-Jährige gedacht, den laut Microsoft „dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA“.

Chat-Bot Tay (Bild: Microsoft)

„Wir bedauern zutiefst die unbeabsichtigt anstößigen und verletztenden Tweets von Tay“, heißt es in einer Stellungnahme Microsofts, nachdem der Teenager-Bot den Holocaust geleugnet, Hitler gelobt, gegen Feminismus gehetzt und zur Vernichtung Mexikos aufgerufen hatte. „Sie repräsentieren weder uns noch das, wofür wir stehen, oder die Entwicklungsziele von Tay.“ Der Bot soll erst wieder zurückkommen, wenn die Microsoft-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“.

Das Unternehmen verweist auf die vorhergehende AI-Anwendung XiaoIce, die in China als Chat-Bot von rund 40 Millionen Menschen angesprochen wurde. Dabei kam es offenbar nicht zu ähnlichen Problemen, wie auch kaum zu erwarten in einem autoritären Staat, der Social Media flächendeckend überwacht und zensiert. Microsoft führt außerdem an, vor dem Tay-Start in den USA umfangreiche Nutzerstudien mit verschiedenen Gruppen durchgeführt und auch Filter implementiert zu haben, um eine positive Nutzererfahrung zu gewährleisten.

Twitter sei der logische Ort für die künstliche Intelligenz gewesen, um durch massenhafte Interaktion mit Nutzern zu lernen und immer besser zu werden. Allerdings erwiesen sich Nutzer als fähig, Tay zu manipulieren und zu den Aussagen gehässiger Internet-Trolle zu bewegen. „Unglücklicherweise nutzten in den ersten 24 Stunden nach dem Online-Start eine begrenzte Zahl von Menschen eine Schwachstelle in Tay aus“, beschreibt Microsoft den Hergang. „Obwohl wir uns auf viele Arten möglichen Missbrauchs des Systems vorbereitet hatten, haben wir bei diesem spezifischen Angriff etwas Entscheidendes übersehen. Im Ergebnis tweetete Tay absolut unangebrachte und verwerfliche Wörter und Bilder.“

„AI-Systeme nähren sich sowohl von positiven wie negativen Interaktionen mit Menschen“, erklärt Microsoft Research und sieht deshalb noch erhebliche Herausforderungen in der AI-Forschung vor sich. Übersehen hatten die Forscher allerdings schlicht, dass die angebotene Funktion „Repeat after me“ Trollen unter den Nutzern erlaubte, Tay beliebige Parolen vorzugeben und diese wiederholen zu lassen. Das sprach sich schnell herum und führte zu einer Flut von rassistischen, fremdenfeindlichen und homophoben Aussagen, die der Chat-Bot in sein Repertoire aufnahm. Mit künstlicher Intelligenz hatte das offenbar wenig zu tun – Tay verhielt sich eher wie ein einfacher Chat-Bot in der Art von Eliza, einem schon 1966 entwickelten Computerprogramm.

Themenseiten: Forschung, Kommunikation, Microsoft, Soziale Netze, Twitter

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Chat-Bot Tay: Microsoft entschuldigt sich

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *