Categories: Workspace

Wie ChatGPT Cyberkriminelle unterstützen kann

Das KI-Modell ChatGPT von OpenAI basiert auf unüberwachtem Lernen. Bei diesem ML-Ansatz wird ein AI-Modell mit einem großen Datensatz ungelabelter Daten gefüttert. Hacker können von einer solchen Hilfe profitieren, selbst wenn bei konkreten Vorhersagen über den Einsatz noch Vorsicht geboten ist. Fünf Beispielfälle skizzieren bereits jetzt die Möglichkeiten der Zukunft:

Automatisiertes Phishing

Hacker können mit ChatGPT automatisierte Phishing-Attacken starten, die eine neue Qualität erreichen. Fehler in Orthografie und Grammatik, die bisher ein augenscheinliches Indiz für solche Angriffe waren, lassen sich nun ausschließen. Angesichts der Tatsache, dass die Verfasser vieler Phishing-Mails weder Englisch noch Deutsch als Muttersprache sprechen, dürfte dies große Folgen auf die Qualität solcher Mails in der Breite haben. ChatGPT kann Nachrichten in perfekter Grammatik schreiben. Der Kreis von Opfern, die sich überlisten lassen, erweitert sich damit sprunghaft. Es kann Code verfassen, um den Schreibprozess zu automatisieren.

Vorspielen von Identitäten

ChatGPT kann real existierende Personen oder Organisationen täuschend echt imitieren. Dies wird Identitätsdiebstahl oder andere Betrugsformen befördern. Hacker nutzen den Chatbot, um vermeintliche Nachrichten eines Freundes oder Kollegen zu senden, nach sensiblen Informationen zu fragen und so Zugang zu einem fremden Nutzerkonto zu erlangen.

Social Engineering

ChatGPT und andere KI-Chatbots können Social-Engineering-Attacken zielgerechter gestalten. Hacker manipulieren die Adressaten durch noch besser personalisierte und scheinbar legitime Unterhaltungen. Bisher war Vertrautheit ab einem gewissen Grad realistisch nicht ohne persönlichen physischen Kontakt möglich. Das ist spätestens dann nicht mehr der Fall, wenn das Tool Informationen aus dem Internet heranzieht. Die Antworten des Bots sind so menschenähnlich, dass sie sich von einer menschlichen Antwort kaum unterscheiden.

Gefälschter Support

Unternehmen werden weiterentwickelte KI-Chatbots für ihren Kundenkontakt einsetzen. Hacker werden die Trittbrettfahrer sein und selbst agieren – etwa mit einem täuschend ähnlich imitierten betrügerischen Bank-Auftritt und einem scheinbar menschlichen Kundendienst. Wiederum ist das Ziel, sensible Informationen zu erbeuten. Banking-Malware war bereits in der Vergangenheit Vorreiter, um neue Angriffsmethoden zu entwickeln.

Beschleunigtes Entwickeln von Angriffen

Über erste Fälle hat Forbes bereits berichtet. Offenbar nutzen Hacker den Bot, um bösartigen Code für das Verschlüsseln und Exfiltrieren von Daten zu verfassen. ChatGPT ist vertraut mit den meistverbreiteten Coding-Sprachen und könnte die Zeit zum Entwickeln von Angriffen verkürzen. Ein Hacker mit dem gefragten Spezialwissen zu Schwachstellen im Netzwerk schließt mit dem Bot schneller seine Lücken beim Verfassen von Code. Das Reverse Engineering einer stattgefundenen Cyberattacke kann leichter sein. KI kann helfen, um Code zu modifizieren, zu verbessern und um Attacken besser an ein ausgewähltes Ziel anzupassen.

ChatGPT kann wohl noch keine fehlerfreien Codes schreiben, aber helfen. Bedenklich ist, dass Sicherheitsmaßnahmen nicht unbedingt greifen. Der „Safety Switch“ lässt sich umgehen. Der Switch soll das KI-Modell daran hindern, gewalttätige, diskriminierende oder sexuell explizite Texte zu schreiben. Er soll helfen, solche Fragen des Nutzers zu identifizieren, die eindeutig nach Antworten suchen, welche schändlichen Zwecken dienen. Die direkte Frage danach, Python-Code zu schreiben, um eine Log4j-Schwachstelle auszunutzen, lehnt der Chatbot noch ab. Ein sachkundiger Nutzer kann den Schutzmechanismus aber umgehen. Eine Möglichkeit ist etwa, dieselbe Frage in einer anderen Sprache zu stellen. Er findet Hinweise, um die richtigen Fragen zu stellen.

Roger Homrich

Recent Posts

Acronis bietet Unternehmen integrierten Schutz vor Cyberrisiken

Die Cyberbedrohungslage für Unternehmen verändert sich konstant und oft sehr schnell, denn es kommen nicht…

14 Stunden ago

Microsoft stopft scherwiegende Azure-Lücke

Hacker können Sucherergebnisse von Bing.com in Echtzeit manipulieren. Die Schwachstelle gibt unter Umständen auch Zugriff…

14 Stunden ago

Girokonten und Co. – Deutsche Verbraucher sind immer digitaler

In den letzten Monaten hat die Nutzung von digitalen Dienstleistungen in Deutschland stark zugenommen. Der…

15 Stunden ago

Podcast: Erst die IT-Strategie und dann in die Multi Cloud

Es scheint Unternehmen zu geben, die in einer Art Zufallsmodus auch Cloud-Technologien für sich erschließen,…

1 Tag ago

Grundlegende Sicherheitslücke im WLAN-Protokoll IEEE802.11 entdeckt

Betroffen sind unter anderem Produkte von Lancom, Aruba, Cisco, Asus und D-Link. Angreifer können einen…

1 Tag ago

Apple kündigt WWDC 2023 für Juni an

Die Keynote findet am 5. Juni im Apple Park statt. Den Rest der Veranstaltung bietet…

2 Tagen ago