Categories: ForschungInnovation

AI-Experten fordern Verbot autonomer Waffensysteme

Über 1000 Experten aus den Bereichen Robotik und künstliche Intelligenz (Artificial Intelligence, AI) haben in einem offenen Brief ein Verbot von autonomen Waffensystemen gefordert. Sie befürchten, dass der Einzug von künstlicher Intelligenz in die Kriegsführung zu einem neuen Wettrüsten führt – zum Nachteil der Menschheit.

Den Aufruf haben unter anderem Stephen Hawking, Tesla-CEO Elon Musk, Skype-Gründer Jaan Tallinn und Apple-Gründer Steve Wozniak unterschrieben. Verfasst wurde er vom Future of Life Institute.

Entwicklungen in den Bereichen Maschinenintelligenz und Robotik werden schon jetzt kontrovers diskutiert, beispielsweise die Auswirkungen von Kamera-Drohnen auf die Privatsphäre. Selbstfahrende Fahrzeuge haben wiederum das Potenzial, die Automobilindustrie zu revolutionieren – das Beispiel Fiat Chrysler zeigte zuletzt aber auch, dass Assistenz- und computergestützte Fahrzeugsysteme ein erhebliches Sicherheitsrisiko darstellen können.

Der offene Brief definiert autonome Waffen als Systeme, die „ohne menschliche Einflussnahme Ziele aussuchen und bekämpfen können“. Die Forscher und Experten wenden sich also unter anderem gegen bewaffnete Quadrocopter, die Menschen aufspüren und töten können.

„Autonome Waffen sind ideal für Aufgaben wie Anschläge, Destabilisierung von Nationen, Unterdrückung der Bevölkerung und selektive Tötung bestimmter ethnischer Gruppen“, heißt es in dem Brief. „Wir sind deswegen überzeugt, dass ein Wettrüsten im Bereich künstlicher Intelligenz nicht zum Vorteil der Menschheit wäre.“

Ihre Forderung nach einem Verbot stützen die Unterzeichner auf den Regelungen, die seit Jahren für chemische und biologische Waffen existieren. „Genauso wie die meisten Chemiker und Biologen kein Interesse an der Entwicklung chemischer oder biologischer Waffen haben, haben auch die meisten AI-Forscher keine Interesse an Waffen mit künstlicher Intelligenz.“ Der Einsatz im Rüstungssektor könne zudem dem öffentlichen Ansehen der AI-Forschung schaden und deren künftige Vorteile für die Gesellschaft einschränken.

Schon im Mai 2014 hatte Stephen Hawking Zweifel an der langfristigen Beherrschbarkeit von künstlicher Intelligenz geäußert. Auch Bill Gates warnte im Januar vor „superintelligenten Maschinen„, die seiner Ansicht nach allerdings erst in mehreren Jahrzehnten zu einer Gefahr werden könnten.

[mit Material von Luke Westaway, News.com]

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Studie: 91 Prozent der Ransomware-Opfer zahlen Lösegeld

Die durchschnittliche Lösegeldzahlung liegt bei 2,5 Millionen Dollar. Acht Prozent der Befragten zählten 2023 mehr…

5 Stunden ago

DMA: EU stuft auch Apples iPadOS als Gatekeeper ein

Eine neue Analyse der EU-Kommission sieht vor allem eine hohe Verbreitung von iPadOS bei Business-Nutzern.…

6 Stunden ago

Chips bescheren Samsung deutlichen Gewinnzuwachs

Das operative Ergebnis wächst um fast 6 Billionen Won auf 6,64 Billionen Won. Die Gewinne…

14 Stunden ago

Chrome: Google verschiebt das Aus für Drittanbietercookies

Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…

1 Tag ago

BAUMLINK: Wir sind Partner und Aussteller bei der Frankfurt Tech Show 2024

Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…

1 Tag ago

Business GPT: Generative KI für den Unternehmenseinsatz

Nutzung einer unternehmenseigenen GPT-Umgebung für sicheren und datenschutzkonformen Zugriff.

2 Tagen ago