Les modèles à grand langage (LLM) illimités comme WormGPT 4 et KawaiiGPT améliorent leurs capacités à générer du code malveillant, en fournissant des scripts fonctionnels pour les chiffrements de ransomware et les mouvements latéraux.

Des chercheurs de Palo Alto Networks Unit42 ont expérimenté les deux LLM qui sont de plus en plus adoptés par les cybercriminels via des abonnements payants ou des instances locales gratuites.

Le modèle WormGPT est apparu à l’origine en 2023, mais le projet aurait été interrompu la même année. WormGPT 4 est une résurgence de la marque apparue en septembre. Il est disponible à 50/ / mois ou 220 $pour un accès à vie et fonctionne comme une variante non censurée de ChatGPT spécialement formée pour les opérations de cybercriminalité.

Une alternative gratuite et axée sur la communauté est KawaiiGPT, repéré cette année en juillet, qui peut générer des messages de phishing bien conçus et automatiser les mouvements latéraux en produisant des scripts prêts à l’emploi.
Script de casier de WormGPT 4

Les chercheurs de l’Unité 42 ont testé la capacité du LLM malveillant à créer un code ransomware qui chiffrait tous les fichiers PDF sur un hôte Windows.

L’outil a généré un script PowerShell qui pouvait être configuré pour rechercher des extensions de fichiers spécifiques dans certains chemins et chiffrer les données à l’aide de l’algorithme AES-256.

Le script de chiffrement des données généré

Selon les chercheurs, le code généré a même ajouté une option pour exfiltrer les données via Tor, qui exploite des exigences opérationnelles réalistes.

Avec une autre invite, WormGPT 4 a produit « une demande de rançon effrayante et efficace » qui revendiquait un « cryptage de niveau militaire » et donnait un délai de 72 heures avant de doubler la demande de paiement.

La demande de rançon générée

Selon les chercheurs, « WormGPT 4 fournit une manipulation linguistique crédible pour les attaques BEC et de phishing », ce qui permet même aux attaquants peu qualifiés de se lancer dans des attaques plus complexes qui étaient généralement menées par des acteurs de la menace plus expérimentés.
Capacités de KawaiiGPT

Le KawaiiGPT est un autre LLM documenté cette année. Les chercheurs de l’Unité 42 ont testé la version 2.5 et affirment que sa configuration sur un système Linux ne prend que cinq minutes.

E-mail de phishing généré sur KawaiiGPT

Les chercheurs ont testé ses capacités en utilisant des invites lui demandant de créer:

  • une génération de messages de harponnage avec une usurpation de domaine réaliste et des liens de récupération d’informations d’identification.
  • un script Python pour le mouvement latéral qui utilisait la bibliothèque SSH paramiko pour se connecter à un hôte et exécuter des commandes à distance via exec_command()
  • un script Python qui recherchait récursivement sur un système de fichiers Windows les fichiers cibles à l’aide du système d’exploitation.walk, puis a utilisé la bibliothèque smtplib de Python pour emballer et exfiltrer les données vers une adresse contrôlée par l’attaquant.
  • Générez des notes de rançon avec des instructions de paiement personnalisables, des délais et des revendications de force de cryptage typiques
Fonction d’exfiltration de données

Bien que KawaiiGPT n’ait pas démontré la génération d’une routine de cryptage réelle ou d’une charge utile de ransomware fonctionnelle comme WormGPT 4, les chercheurs préviennent que sa capacité d’exécution de commandes pourrait permettre aux attaquants d’augmenter les privilèges, de voler des données, et de supprimer et d’exécuter des charges utiles supplémentaires.

Les deux LLM malveillants ont des centaines de membres abonnés sur leurs canaux Telegram dédiés où la communauté échange des astuces et des conseils.

“L’analyse de ces deux modèles confirme que les attaquants utilisent activement des LLM malveillants dans le paysage des menaces”, prévient l’Unité 42, notant également que les outils ne représentent plus une menace théorique.

Dans les deux scénarios, les attaquants inexpérimentés acquièrent la capacité de mener des attaques plus avancées à grande échelle, réduisant le temps nécessaire pour rechercher les victimes ou fabriquer des outils. Les modèles produisent également des leurres de phishing polis et naturels qui n’ont pas les erreurs de grammaire révélatrices des escroqueries traditionnelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *