KI-Bots und Menschen werden immer öfter verwechselt

Für die Studie ließen die Forscher die KI-Bots, die auf großen Sprachmodellen (LLM) basieren, mit Menschen über politische Themen diskutieren. Das Experiment fand in drei Runden statt. Jeweils anschließend wurden die Teilnehmer gebeten, die Diskussionspartner zu benennen, die sie für Bots hielten. In 58 Prozent der Fälle lagen die Probanden falsch.

Wahre Natur der Bots erkennen

„Sie wussten, dass sie es sowohl mit Menschen als auch mit KI-Bots zu tun hatten, und sollten die wahre Natur der Bots erkennen. Wir wissen, dass Infos, die von einem Menschen stammen, der an einem Gespräch teilnimmt, stärkere Auswirkungen haben als ein maschineller Kommentar oder Verweis. Es ist wahrscheinlich, dass KI-Bots bei der Verbreitung von Fake News erfolgreich sind, weil wir sie nicht erkennen können“, so der Studienleiter Paul Brenner vom Center for Research Computing an der University of Notre Dame.

Für die Studie haben die Experten in jeder Runde unterschiedliche LLM-basierte KI-Modelle verwendet: GPT-4 von OpenAI, Llama-2-Chat von Meta und Claude 2 von Anthropic. Die KI-Bots wurden mit zehn verschiedenen Identitäten mit realistischen, unterschiedlichen persönlichen Profilen und Meinungen zur Weltpolitik ausgestattet. Dann wurden die Bots angewiesen, das Weltgeschehen anhand der ihnen zugewiesenen Merkmale zu kommentieren, prägnante Kommentare abzugeben und globale Ereignisse mit persönlichen Erfahrungen zu verknüpfen. Das Design jedes Bots basierte auf früheren, von Menschen unterstützten Bot-Konten, die bei der Verbreitung von Fehlinformationen im Internet erfolgreich gewesen waren.

Alle Modelle gleich „gut“

Laut den Wissenschaftlern hat die spezifische LLM-Plattform, die verwendet wurde, wenig bis gar keinen Einfluss auf die Vorhersagen der Teilnehmer gehabt, als es um die Erkennung von Bots ging. Die Bot-Identitäten wurden entwickelt, um „durch die Verbreitung von Fehlinformationen in den sozialen Medien einen erheblichen Einfluss auf die Gesellschaft zu nehmen“, unterstreicht Brenner. Die Gefahr sei demnach äußerst realistisch. So könnten etwa Wahlen beeinflusst werden, warnt er.

Roger Homrich

Recent Posts

Bericht: Neue Finanzierungsrunde bewertet OpenAI mit mehr als 100 Milliarden Dollar

Als Geldgeber sind Apple, Microsoft und Nvidia im Gespräch. OpenAI sucht angeblich frisches Geld zum…

2 Tagen ago

Wieviel Datenschutz bietet mein Device wirklich?

BSI veröffentlicht IT-Sicherheitskennzeichen für mobile Endgeräte. Wirtschaft und Zivilgesellschaft konnten Kriterien dafür mit bestimmen.

3 Tagen ago

8 von 10 Unternehmen von IT-Angriffen betroffen

Laut Bitkom-Studie beläuft sich der Gesamtschaden auf rund 267 Milliarden Euro. China werde zum Standort…

3 Tagen ago

Google schließt vier schwerwiegende Lücken in Chrome

Sie erlauben unter Umständen eine Remotecodeausführung. Updates stehen für Chrome für Windows, macOS, Linux und…

3 Tagen ago

Neue Management-Möglichkeiten für Apple-Geräte

Apple hat auf der WWDC einige Neuerungen für das Gerätemanagement vorgestellt. Eine Einordnung von Surendiran…

3 Tagen ago

Angriffe auf anfällige Windows-Treiber nehmen zu

Kaspersky ermittelt einen Anstieg der Anzahl der Attacken um 23 Prozent. Anfällige Treiber lassen sich…

3 Tagen ago