Vorsicht bei Code-Empfehlungen von ChatGPT

Unternehmen sollten keinen Codes herunterladen und ausführen, den sie nicht gründlich überprüft oder getestet haben, warnt Melissa Bischoping aus aktuellem Anlass.

Das Voyager18-Forschungsteam von Vulcan Cyber hat eine neue Angriffstechnik entdeckt, die auf ChatGPT basiert. Diese ermöglicht es Angreifern, mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen. Voyager18 hat die neue Technik „AI-Paket-Halluzination“ genannt. Sie beruht auf der Tatsache, dass ChatGPT und andere generative KI-Plattformen dazu neigen, Fragen mit künstlich kreierten Quellen, Links, Blogs und Statistiken zu beantworten. Es werden auch fragwürdige Korrekturen für CVEs generiert und Links zu Code-Bibliotheken angeboten, die nicht existieren. Wenn ein Angreifer eine Empfehlung für ein unveröffentlichtes Paket findet, kann er sein eigenes Paket an dessen Stelle veröffentlichen. Anschließend kann er Supply-Chain-Angriffe ausführen, indem er bösartige Bibliotheken in bekannten Repositories bereitstellt.

Keine Downloads aus unbekannter Quelle

Unternehmen sollten deshalb niemals Codes herunterladen und ausführen, den sie nicht gründlich überprüft oder getestet haben. Gerade der Download aus einer nicht überprüften Quelle – wie Open-Source-Github-Repos oder jetzt Empfehlungen von ChatGPT – birgt einige Gefahren. Jeder Code, der ausgeführt werden soll, muss auf Sicherheit geprüft werden. Außerdem empfiehlt es sich, private Kopien anzulegen.

Importieren Sie Codes nicht direkt aus öffentlichen Repositories, wie sie in dem Beispielangriff von Voyager18 verwendet wurden. In diesem Fall verwenden die Angreifer ChatGPT als Übermittlungsmechanismus. Es ist jedoch nicht neu, dass die Lieferkette durch die Verwendung gemeinsam genutzter oder von Drittanbietern importierter Bibliotheken kompromittiert wird. Diese Strategie wird auch weiterhin verwendet werden, und die beste Verteidigung besteht darin, sichere Kodierungspraktiken anzuwenden. Außerdem sollte insbesondere von Dritten entwickelter Code, der für die Verwendung in Produktionsumgebungen vorgesehen ist, gründlich getestet und überprüft werden. Vertrauen Sie nicht blind jeder Bibliothek oder jedem Paket, das Sie im Internet (oder in einem Chat mit einer KI) finden.

 

Melissa Bischoping

ist Director Endpoint Security Research bei Tanium.

 

 

 

 

 

Themenseiten: ChatGPT, Code, Cyberbedrohung, Cyberkriminalität, KI, generative KI

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Vorsicht bei Code-Empfehlungen von ChatGPT

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *