Deepfakes könnten Identitätsprüfungen in Frage stellen

Laut Gartner werden 30 Prozent der Unternehmen bis 2026 Identitätsprüfungen als unzuverlässig einstufen.

Gartner prognostiziert, dass bis 2026 KI-generierte Deepfake-Angriffe auf biometrische Gesichtsdaten zunehmen werden. Dies wird dazu führen, dass 30 Prozent der Unternehmen diese Art von Identitätsprüfungs- und Authentifizierungslösungen als unzuverlässig ansehen.

„In den letzten zehn Jahren haben Fortschritte in der KI die Erstellung von synthetischen Bildern ermöglicht. Künstlich erzeugte Bilder von Gesichtern, bekannt als Deepfakes, können von böswilligen Akteuren verwendet werden, um die biometrische Authentifizierung zu untergraben oder ineffizient zu machen”, sagte Akif Khan, VP Analyst bei Gartner. „Daher könnten Organisationen die Zuverlässigkeit von Identitätsüberprüfungs- und Authentifizierungslösungen anzweifeln, da sie nicht mehr erkennen können, ob die zu prüfenden Gesichter echt sind oder Deepfakes.”

KI-generierte Deepfakes

Identitätsüberprüfungs- und Authentifizierungsverfahren, die biometrische Gesichtsdaten verwenden, stützen sich heute auf die Erkennung von Präsentationsangriffen (Presentation Attack Detection, PAD), um die Authentizität des Benutzers zu bewerten. „Die gegenwärtigen Standards und Testmethoden für die Definition und Bewertung von PAD-Mechanismen berücksichtigen keine digitalen Injektionsangriffe, die mit den heutzutage erstellbaren KI-generierten Deepfakes durchgeführt werden können“, so Khan.

Laut einer Studie von Gartner sind Präsentationsangriffe der häufigste Angriffsvektor, aber Injektionsangriffe werden bis 2023 um 200 Prozent zunehmen. Um solche Angriffe zu verhindern, ist eine Kombination aus PAD, Erkennung von Injektionsangriffen und Bildanalyse erforderlich.

 

Themenseiten: Cybersecurity, Deepfake, Identitymanagement

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Deepfakes könnten Identitätsprüfungen in Frage stellen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *