Categories: ForschungInnovation

AI-Experten fordern Verbot autonomer Waffensysteme

Über 1000 Experten aus den Bereichen Robotik und künstliche Intelligenz (Artificial Intelligence, AI) haben in einem offenen Brief ein Verbot von autonomen Waffensystemen gefordert. Sie befürchten, dass der Einzug von künstlicher Intelligenz in die Kriegsführung zu einem neuen Wettrüsten führt – zum Nachteil der Menschheit.

Den Aufruf haben unter anderem Stephen Hawking, Tesla-CEO Elon Musk, Skype-Gründer Jaan Tallinn und Apple-Gründer Steve Wozniak unterschrieben. Verfasst wurde er vom Future of Life Institute.

Entwicklungen in den Bereichen Maschinenintelligenz und Robotik werden schon jetzt kontrovers diskutiert, beispielsweise die Auswirkungen von Kamera-Drohnen auf die Privatsphäre. Selbstfahrende Fahrzeuge haben wiederum das Potenzial, die Automobilindustrie zu revolutionieren – das Beispiel Fiat Chrysler zeigte zuletzt aber auch, dass Assistenz- und computergestützte Fahrzeugsysteme ein erhebliches Sicherheitsrisiko darstellen können.

Der offene Brief definiert autonome Waffen als Systeme, die „ohne menschliche Einflussnahme Ziele aussuchen und bekämpfen können“. Die Forscher und Experten wenden sich also unter anderem gegen bewaffnete Quadrocopter, die Menschen aufspüren und töten können.

„Autonome Waffen sind ideal für Aufgaben wie Anschläge, Destabilisierung von Nationen, Unterdrückung der Bevölkerung und selektive Tötung bestimmter ethnischer Gruppen“, heißt es in dem Brief. „Wir sind deswegen überzeugt, dass ein Wettrüsten im Bereich künstlicher Intelligenz nicht zum Vorteil der Menschheit wäre.“

Ihre Forderung nach einem Verbot stützen die Unterzeichner auf den Regelungen, die seit Jahren für chemische und biologische Waffen existieren. „Genauso wie die meisten Chemiker und Biologen kein Interesse an der Entwicklung chemischer oder biologischer Waffen haben, haben auch die meisten AI-Forscher keine Interesse an Waffen mit künstlicher Intelligenz.“ Der Einsatz im Rüstungssektor könne zudem dem öffentlichen Ansehen der AI-Forschung schaden und deren künftige Vorteile für die Gesellschaft einschränken.

Schon im Mai 2014 hatte Stephen Hawking Zweifel an der langfristigen Beherrschbarkeit von künstlicher Intelligenz geäußert. Auch Bill Gates warnte im Januar vor „superintelligenten Maschinen„, die seiner Ansicht nach allerdings erst in mehreren Jahrzehnten zu einer Gefahr werden könnten.

[mit Material von Luke Westaway, News.com]

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

1 Tag ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

1 Tag ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

1 Tag ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

2 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

2 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

2 Tagen ago