ChatGPT beliebtes Ziel von Datendieben

Laut Kaspersky kursieren fast 700.000 Kontodaten von OpenAI-Nutzern im Darknet. Auch andere KI-Chatbots sind betroffen.

Security-Experten von Kaspersky haben im Darknet tausende gestohlene Zugangsdaten für beliebte KI-Tools wie ChatGPT, Grammarly oder Canva entdeckt. Mit Hilfe von Infostealern würden Cyberkriminelle an die Zugangsdaten von Nutzern gelangen und diese zum Verkauf anbieten.

Allein beim ChatGPT-Entwickler OpenAI sei die Zahl der kompromittierten Account-Informationen seit 2022 um mehr als das dreißigfache gestiegen, so Kaspersky weiter. Aktuell seien fast 688.000 Nutzerkonten betroffen. Nach Launch der vierten ChatGPT-Version im März 2023 sei die Nachfrage nach entsprechenden Konten besonders hoch gewesen, seitdem entspräche sie jener anderer KI-Dienste.

So zum Beispiel der von Canva. Hier wurden den Angaben von Kaspersky zufolge in den vergangenen drei Jahren rund 1,2 Millionen Zugangsdaten von Canva-Nutzern gestohlen und in Darknet-Foren sowie Telegram-Kanälen verbreitet. Grammarly verzeichnete demnach im selben Zeitraum rund 839.000 kompromittierte Zugangsdaten.

Funktionsweise von Infostealern

„Die kompromittierten Anmeldeinformationen stammen aus Infostealer-Aktivitäten, einer speziellen Malware-Art, die Nutzerzugänge für Cyberangriffe, Verkäufe im Darknet oder andere schädliche Aktivitäten stiehlt. Infostealer können Geräte von Unternehmen unter anderem über Phishing-E-Mails oder -Websites und öffentliche Webseiten mit schädlichen Inhalten infizieren“, erklärt Yuliya Novikova, Head of Kaspersky Digital Footprint Intelligence.

Novikova erwartet, dass die Nachfrage nach ChatGPT-Konten bestehen bleibt. Effiziente Sicherheitslösungen für Unternehmen, die vor Infostealer-Angriffen und anderer Malware schützen, würden daher immer wichtiger. Vor diesem Hintergrund gibt sie folgende vier Grundempfehlungen zur Risikominimierung im Falle von Daten-Leaks:

1. Das Darknet kontinuierlich auf Posts zu Daten-Leaks überwachen. Hierzu habe Kaspersky diesen Leitfaden erstellt.

2. Sicherheitswerkzeuge zu nutzen, mit denen man die Sicht eines Angreifers auf Unternehmensressourcen einnehmen und potenzielle Angriffsvektoren erkennen kann.

3. Für jeden Dienst ein einzigartiges Passwort verwenden, um die Auswirkungen eines Kontodiebstahls zu minimieren.

4. Im Falle eines Daten-Leaks auf dedizierte Vorfallreaktionsdienste] zurückgreifen, um schnell und effektiv handeln zu können und die Folgen zu minimieren. Solche Dienste helfen dabei, kompromittierte Konten zu identifizieren und die Infrastruktur zukünftig vor ähnlichen Angriffen zu schützen.

Themenseiten: ChatGPT, Cyberkriminalität, Darknet, Infostealer, generative KI

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu ChatGPT beliebtes Ziel von Datendieben

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *