Categories: ForschungInnovation

AI-Experten fordern Verbot autonomer Waffensysteme

Über 1000 Experten aus den Bereichen Robotik und künstliche Intelligenz (Artificial Intelligence, AI) haben in einem offenen Brief ein Verbot von autonomen Waffensystemen gefordert. Sie befürchten, dass der Einzug von künstlicher Intelligenz in die Kriegsführung zu einem neuen Wettrüsten führt – zum Nachteil der Menschheit.

Den Aufruf haben unter anderem Stephen Hawking, Tesla-CEO Elon Musk, Skype-Gründer Jaan Tallinn und Apple-Gründer Steve Wozniak unterschrieben. Verfasst wurde er vom Future of Life Institute.

Entwicklungen in den Bereichen Maschinenintelligenz und Robotik werden schon jetzt kontrovers diskutiert, beispielsweise die Auswirkungen von Kamera-Drohnen auf die Privatsphäre. Selbstfahrende Fahrzeuge haben wiederum das Potenzial, die Automobilindustrie zu revolutionieren – das Beispiel Fiat Chrysler zeigte zuletzt aber auch, dass Assistenz- und computergestützte Fahrzeugsysteme ein erhebliches Sicherheitsrisiko darstellen können.

Der offene Brief definiert autonome Waffen als Systeme, die „ohne menschliche Einflussnahme Ziele aussuchen und bekämpfen können“. Die Forscher und Experten wenden sich also unter anderem gegen bewaffnete Quadrocopter, die Menschen aufspüren und töten können.

„Autonome Waffen sind ideal für Aufgaben wie Anschläge, Destabilisierung von Nationen, Unterdrückung der Bevölkerung und selektive Tötung bestimmter ethnischer Gruppen“, heißt es in dem Brief. „Wir sind deswegen überzeugt, dass ein Wettrüsten im Bereich künstlicher Intelligenz nicht zum Vorteil der Menschheit wäre.“

Ihre Forderung nach einem Verbot stützen die Unterzeichner auf den Regelungen, die seit Jahren für chemische und biologische Waffen existieren. „Genauso wie die meisten Chemiker und Biologen kein Interesse an der Entwicklung chemischer oder biologischer Waffen haben, haben auch die meisten AI-Forscher keine Interesse an Waffen mit künstlicher Intelligenz.“ Der Einsatz im Rüstungssektor könne zudem dem öffentlichen Ansehen der AI-Forschung schaden und deren künftige Vorteile für die Gesellschaft einschränken.

Schon im Mai 2014 hatte Stephen Hawking Zweifel an der langfristigen Beherrschbarkeit von künstlicher Intelligenz geäußert. Auch Bill Gates warnte im Januar vor „superintelligenten Maschinen„, die seiner Ansicht nach allerdings erst in mehreren Jahrzehnten zu einer Gefahr werden könnten.

[mit Material von Luke Westaway, News.com]

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Meta meldet Gewinnsprung im ersten Quartal

Der Nettoprofi wächst um 117 Prozent. Auch beim Umsatz erzielt die Facebook-Mutter ein deutliches Plus.…

9 Stunden ago

Maximieren Sie Kundenzufriedenheit mit strategischem, kundenorientiertem Marketing

Vom Standpunkt eines Verbrauchers aus betrachtet, stellt sich die Frage: Wie relevant und persönlich sind…

13 Stunden ago

Chatbot-Dienst checkt Nachrichteninhalte aus WhatsApp-Quellen

Scamio analysiert und bewertet die Gefahren und gibt Anwendern Ratschläge für den Umgang mit einer…

14 Stunden ago

Microsoft stellt kleines KI-Modell Phi-3 Mini vor

Seine Trainingsdaten umfassen 3,8 Milliarden Parameter. Laut Microsoft bietet es eine ähnliche Leistung wie OpenAIs…

14 Stunden ago

Google schließt kritische Sicherheitslücke in Chrome

Sie erlaubt eine Remotecodeausführung außerhalb der Sandbox. Betroffen sind Chrome für Windows, macOS und Linux.

16 Stunden ago

Microsoft beseitigt Fehler im März-Sicherheitsupdate für Exchange Server

Probleme treten vor allem bei Nutzern von Outlook Web Access auf. Das optionale Hotfix-Update für…

1 Tag ago