KI soll reguliert werden

Laut einer TÜV-Verband Umfrage sehen die Befragten Diskriminierung, Manipulation und Intransparenz als größte Risiken unregulierter Künstlicher Intelligenz (KI) und wollen deshalb gesetzliche Regelungen.

Chancen, aber auch Gefahren. Gut vier von fünf Bundesbürger halten eine Regulierung von Künstlicher Intelligenz (KI) für sinnvoll (82 Prozent). 11 Prozent sehen keinen Bedarf für gesetzliche Vorgaben und 7 Prozent sind unentschlossen. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.005 Personen ab 16 Jahren ergeben. In der Befragung ging es konkret um die geplante europäische KI-Verordnung. Produkte und Anwendungen mit Künstlicher Intelligenz sollen künftig in Abhängigkeit vom Risiko, das von ihnen ausgeht, bestimmte Sicherheits- und Qualitätsanforderungen einhalten müssen.

„Die Europäische Union leistet mit der KI-Verordnung weltweit Pionierarbeit“, sagte Prof. Axel Stepken, Präsident des TÜV-Verbands, anlässlich der „TÜV AI Conference“. „Der AI Act wird für mehr Rechtssicherheit sorgen und dazu beitragen, die enormen Potenziale Künstlicher Intelligenz besser auszuschöpfen.“
KI gilt als Schlüsseltechnologie und ermöglicht zum Beispiel Sprach- und Gesichtserkennung in Smartphones, intelligente Routenplanung oder Empfehlungen in Online-Shops. Darüber hinaus kommt KI verstärkt in sicherheitskritischen Bereichen wie der Medizin, dem automatisierten Fahren oder der Strafverfolgung zum Einsatz.

Stepken: „KI-Anwendungen sollten immer dann bestimmte Vorgaben erfüllen müssen, wenn sie die Gesundheit der Menschen oder ihre elementaren Grundrechte wie Gleichbehandlung und Privatsphäre gefährden.“ Der Entwurf der KI-Verordnung wird derzeit zwischen EU-Kommission, EU-Parlament und den Mitgliedsstaaten diskutiert. Mit einer abgestimmten Gesetzesvorlage wird im Laufe des Jahres 2023 gerechnet.

Laut den Ergebnissen der Umfrage sehen zwei von drei Befragten die Gefahr, dass Menschen durch automatisierte Entscheidungen diskriminiert oder benachteiligt werden könnten (66 Prozent). Das kann zum Beispiel bei der Personalauswahl, der Kriminalitätsbekämpfung oder der Bewertung der Kreditwürdigkeit von Personen der Fall sein. „Gründe für Benachteiligungen durch Algorithmen können eine unbedachte Programmierung oder unzureichende Trainingsdaten sein“, sagte Stepken.
„KI-Anbieter sollten daher bei der Entwicklung ihrer Anwendungen ethische Grundsätze beachten, die Ungleichbehandlungen verhindern.“ Das mit 62 Prozent am zweithäufigsten genannte Risiko ist aus Sicht der Befragten die Manipulation von Menschen. Das kann zum Beispiel mit Deepfakes erfolgen. Deepfakes sind mit Hilfe von KI nachgestellte, aber täuschend echt aussehende Fotos oder Videos von realen Personen. Als weitere mögliche Nachteile und Risiken von Künstlicher Intelligenz nennen die Befragten Intransparenz beim Einsatz von KI (61 Prozent), nicht ausreichend geschützte persönliche Daten (57 Prozent), unzuverlässige automatisierte Entscheidungen (44 Prozent) oder dass Menschen zu Schaden kommen könnten (39 Prozent).

Trotz der Risiken hat die Mehrheit der Bundesbürger eine positive Einstellung zu Künstlicher Intelligenz. 40 Prozent der Befragten empfinden etwas Positives, wenn sie an die Technologie denken. Dagegen empfinden 21 Prozent etwas Negatives beim Gedanken an KI. 38 Prozent sind neutral eingestellt. Mit 86 Prozent erwarten die meisten Bundesbürger Vorteile oder Erleichterungen durch die Nutzung von KI in ihrem Alltag.

An erster Stelle nennen knapp zwei von drei Befragten die Einsparung von Zeit, zum Beispiel durch Automatisierung (65 Prozent). Es folgen Energieeinsparungen (62 Prozent) und eine Entlastung von Routinearbeiten, zum Beispiel im Haushalt (58 Prozent). Und 36 Prozent erhoffen sich eine bessere Organisation und Struktur in ihrem Alltag.

„Die Bundesbürger haben einen realistischen Blick auf Künstliche Intelligenz“, sagte Stepken. „Sie sehen die Vor- und Nachteile der Technologie und wünschen sich mehr Orientierung bei ihrem Einsatz.“ So halten 90 Prozent der Befragten ein von unabhängigen Organisationen vergebenes Prüfzeichen für wichtig oder sehr wichtig, um ihr Vertrauen in Produkte oder Anwendungen mit Künstlicher Intelligenz zu stärken. 86 Prozent halten es für wichtig, dass sie selbst positive Erfahrungen bei der Nutzung machen und 85 Prozent wünschen sich eine Kennzeichnung, dass KI in einem Produkt enthalten ist. Für drei von vier Befragten ist vertrauensbildend, wenn sich die Anbieter zu einem ethischen Einsatz von KI selbst verpflichten (75 Prozent).

Aus Sicht des TÜV-Verbands sollte der Entwurf des AI Acts an verschiedenen Punkten nachgeschärft werden. So sollten vor allem KI-Systeme mit einem hohen Risiko für die Bevölkerung von unabhängigen Stellen geprüft werden, bevor sie in der EU auf den Markt kommen dürfen. Konkretisierungsbedarf sieht der TÜV-Verband auch bei der Frage, welche KI-Anwendungen in welche Risikoklassen eingestuft werden. „Parallel zum Gesetzgebungsprozess müssen wir Test- und Prüfmethoden für Künstliche Intelligenz entwickeln“, sagte Stepken. Eine wichtige Rolle könnten hier die in drei Bundesländern geplanten „AI Quality & Testing Hubs“ spielen, in denen Unternehmen, Forschungseinrichtungen, Prüforganisationen und andere Institutionen an Standards und Prüfverfahren für Künstliche Intelligenz arbeiten werden.

Themenseiten: KI, TÜV

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu KI soll reguliert werden

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *