Categories: ForschungInnovation

Chat-Bot Tay: Microsoft entschuldigt sich

Microsoft hat sich für rassistische und zum Völkermord aufrufende Äußerungen seines Chat-Bots Tay entschuldigt und ihn offline genommen. Die Anwendung war erst vor wenigen Tagen vorgestellt worden und sollte eine 19-Jährige verkörpern, die Dialoge führte und von ihren Gesprächspartnern lernte. Als auf künstlicher Intelligenz basierender Bot war Tay für 18- bis 24-Jährige gedacht, den laut Microsoft „dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA“.

„Wir bedauern zutiefst die unbeabsichtigt anstößigen und verletztenden Tweets von Tay“, heißt es in einer Stellungnahme Microsofts, nachdem der Teenager-Bot den Holocaust geleugnet, Hitler gelobt, gegen Feminismus gehetzt und zur Vernichtung Mexikos aufgerufen hatte. „Sie repräsentieren weder uns noch das, wofür wir stehen, oder die Entwicklungsziele von Tay.“ Der Bot soll erst wieder zurückkommen, wenn die Microsoft-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“.

Das Unternehmen verweist auf die vorhergehende AI-Anwendung XiaoIce, die in China als Chat-Bot von rund 40 Millionen Menschen angesprochen wurde. Dabei kam es offenbar nicht zu ähnlichen Problemen, wie auch kaum zu erwarten in einem autoritären Staat, der Social Media flächendeckend überwacht und zensiert. Microsoft führt außerdem an, vor dem Tay-Start in den USA umfangreiche Nutzerstudien mit verschiedenen Gruppen durchgeführt und auch Filter implementiert zu haben, um eine positive Nutzererfahrung zu gewährleisten.

Twitter sei der logische Ort für die künstliche Intelligenz gewesen, um durch massenhafte Interaktion mit Nutzern zu lernen und immer besser zu werden. Allerdings erwiesen sich Nutzer als fähig, Tay zu manipulieren und zu den Aussagen gehässiger Internet-Trolle zu bewegen. „Unglücklicherweise nutzten in den ersten 24 Stunden nach dem Online-Start eine begrenzte Zahl von Menschen eine Schwachstelle in Tay aus“, beschreibt Microsoft den Hergang. „Obwohl wir uns auf viele Arten möglichen Missbrauchs des Systems vorbereitet hatten, haben wir bei diesem spezifischen Angriff etwas Entscheidendes übersehen. Im Ergebnis tweetete Tay absolut unangebrachte und verwerfliche Wörter und Bilder.“

„AI-Systeme nähren sich sowohl von positiven wie negativen Interaktionen mit Menschen“, erklärt Microsoft Research und sieht deshalb noch erhebliche Herausforderungen in der AI-Forschung vor sich. Übersehen hatten die Forscher allerdings schlicht, dass die angebotene Funktion „Repeat after me“ Trollen unter den Nutzern erlaubte, Tay beliebige Parolen vorzugeben und diese wiederholen zu lassen. Das sprach sich schnell herum und führte zu einer Flut von rassistischen, fremdenfeindlichen und homophoben Aussagen, die der Chat-Bot in sein Repertoire aufnahm. Mit künstlicher Intelligenz hatte das offenbar wenig zu tun – Tay verhielt sich eher wie ein einfacher Chat-Bot in der Art von Eliza, einem schon 1966 entwickelten Computerprogramm.

ZDNet.de Redaktion

Recent Posts

Salesforce: Mit Einstein GPT zurück auf die Überholspur?

Salesforce forciert den Ausbau seiner Industry Clouds. Mit ihrem Prozesswissen könnten deutsche IT-Dienstleister davon profitieren.

11 Stunden ago

Neue Backdoor: Bedrohung durch Malvertising-Kampagne mit MadMxShell

Bisher unbekannter Bedrohungsakteur versucht über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen.

2 Tagen ago

BSI-Studie: Wie KI die Bedrohungslandschaft verändert

Der Bericht zeigt bereits nutzbare Angriffsanwendungen und bewertet die Risiken, die davon ausgehen.

3 Tagen ago

KI-Wandel: Welche Berufe sich am stärksten verändern

Deutsche sehen Finanzwesen und IT im Zentrum der KI-Transformation. Justiz und Militär hingegen werden deutlich…

3 Tagen ago

Wie ein Unternehmen, das Sie noch nicht kennen, eine Revolution in der Cloud-Speicherung anführt

Cubbit ist das weltweit erste Unternehmen, das Cloud-Objektspeicher anbietet. Es wurde 2016 gegründet und bedient…

3 Tagen ago

Dirty Stream: Microsoft entdeckt neuartige Angriffe auf Android-Apps

Unbefugte können Schadcode einschleusen und ausführen. Auslöser ist eine fehlerhafte Implementierung einer Android-Funktion.

3 Tagen ago