Trend Micro: ChatGPT zur automatisierten Malware-Entwicklung ungeeignet

Tests mit ChatGPT 3.5 decken diverse Fehler auf. Zum Teil sind Änderungen an der Codelogik notwendig, um Probleme mit automatisch erstellten Code zu beheben. Vorteile ergeben sich für erfahrene Malware-Entwickler.

Trend Micro hat untersucht, inwieweit ChatGPT zur Erstellung von Schadsoftware verwendet werden kann. Die Sicherheitsforscher gehen davon aus, dass große Sprachmodelle auf einigen Gebieten wie beispielsweise Entdeckungstechniken vielversprechend sind, bei komplexeren Aufgaben jedoch weiterhin Schwierigkeiten haben.

Für die Tests nutzte Trend Micro ChatGPT 3.5. Ziel war es, automatisch und ohne menschliche Interaktion eine gebrauchsfertige Malware zu generieren. Augangspunkt waren per Sprachmodell erstellte Codeschnipsel, die ChatGPT später zur einer Malware zusammenfügen sollte.

Die getesteten Codeschnipsel mussten jedoch alle geändert werden. Die Änderungen reichten von geringfügigen Anpassungen die der Umbenennung von Pfaden und URLs bis hin zu umfangreichen Änderungen, unter anderem bei der Codelogik. Außerdem lieferten etwa 48 Prozent der Codeschnipsel nicht das gewünschte Ergebnis – 42 Prozent waren indes vollständig erfolgreich.

Außerdem wiesen 43 Prozent der getesteten Codes Fehler auf. Fehler fanden sich auch in Codeschnipseln, die erfolgreich die gewünschte Ausgabe lieferten. Trend Micro vermutet dahinter mögliche Probleme bei der Fehlerbehandlung des Modells oder der Logik der Codegenerierung.

„Unserer Meinung nach ist es immer noch nicht möglich, das LLM-Modell zur vollständigen Automatisierung des Malware-Erstellungsprozesses zu verwenden, ohne dass ein erheblicher Aufwand für Prompt-Engineering, Fehlerbehandlung, Feinabstimmung des Modells und menschliche Aufsicht erforderlich ist“, teilte Trend Micro mit. „Dies gilt trotz mehrerer Berichte, die im Laufe dieses Jahres veröffentlicht wurden, die beweisen sollen, dass ChatGPT für die automatische Erstellung von Malware zu verwenden ist.“

Vorteile ergäben sich jedoch für Cyberkriminelle, die bereits mit dem gesamten Prozess der Malware-Erstellung vertraut seien. „Diese Benutzerfreundlichkeit könnte den Prozess für ein breiteres Publikum zugänglicher machen und den Prozess für erfahrene Malware-Programmierer beschleunigen“, warnte das Unternehmen.

Themenseiten: ChatGPT, KI, Künstliche Intelligenz, Malware, Trend Micro

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Trend Micro: ChatGPT zur automatisierten Malware-Entwicklung ungeeignet

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *