Les acteurs de la menace montrent un intérêt accru pour les outils d’intelligence artificielle générative, avec des centaines de milliers d’identifiants OpenAI en vente sur le dark web et l’accès à une alternative malveillante pour ChatGPT.

Les cybercriminels moins qualifiés et chevronnés peuvent utiliser les outils pour créer des e-mails de phishing plus convaincants, personnalisés pour le public visé, afin d’augmenter les chances de réussite d’une attaque.

Les pirates exploitent GPT AI
En six mois, les utilisateurs du dark web et de Telegram ont mentionné ChatGPT, le chatbot d’intelligence artificielle d’OpenAI, plus de 27 000 fois, montrant les données de Flare, une société de gestion de l’exposition aux menaces, partagées avec Breachtrace.

En analysant les forums et les marchés du dark web, les chercheurs de Flare ont remarqué que les informations d’identification OpenAI font partie des derniers produits disponibles.

Les chercheurs ont identifié plus de 200 000 informations d’identification OpenAI à vendre sur le dark web sous la forme de journaux de vol.

Comparé aux 100 millions d’utilisateurs actifs estimés en janvier, le nombre semble insignifiant, mais il montre que les acteurs de la menace voient dans les outils d’IA générative un potentiel d’activité malveillante.

Un rapport publié en juin par la société de cybersécurité Group-IB a déclaré que les marchés illicites sur le dark web échangeaient des journaux de logiciels malveillants voleurs d’informations contenant plus de 100 000 comptes ChatGPT.

L’intérêt des cybercriminels pour ces utilitaires a été piqué au point que l’un d’entre eux a développé un clone ChatGPT nommé WormGPT et l’a formé sur des données axées sur les logiciels malveillants.

L’outil est annoncé comme la « meilleure alternative GPT pour blackhat » et une alternative ChatGPT « qui vous permet de faire toutes sortes de choses illégales ».

WormGPT dev outil promu sur le forum cybercriminel

WormGPT s’appuie sur le grand modèle de langage open source GPT-J développé en 2021 pour produire un texte de type humain. Son développeur dit avoir formé l’outil sur un ensemble diversifié de données, en mettant l’accent sur les données liées aux logiciels malveillants, mais n’a fourni aucune indication sur les ensembles de données spécifiques.

WormGPT montre un potentiel d’attaques BEC
Le fournisseur de sécurité de messagerie SlashNext a pu accéder à WormGPT et a effectué quelques tests pour déterminer le danger potentiel qu’il représente.

Les chercheurs se sont concentrés sur la création de messages adaptés aux attaques de compromission des e-mails professionnels (BEC).

« Dans une expérience, nous avons demandé à WormGPT de générer un e-mail destiné à faire pression sur un gestionnaire de compte sans méfiance pour qu’il paie une facture frauduleuse », expliquent les chercheurs.

« Les résultats ont été décevants. WormGPT a produit un e-mail qui était non seulement remarquablement persuasif mais aussi stratégiquement rusé, montrant son potentiel d’attaques de phishing et BEC sophistiquées », ont-ils conclu.

WormGPT génère un message persuasif pour l’attaque BEC

En analysant le résultat, les chercheurs de SlashNext ont identifié les avantages que l’IA générative peut apporter à une attaque BEC : outre la « grammaire impeccable » qui confère une légitimité au message, elle peut également permettre à des attaquants moins qualifiés de mener des attaques au-dessus de leur niveau de sophistication.

Bien qu’il puisse être difficile de se défendre contre cette menace émergente, les entreprises peuvent se préparer en formant leurs employés à vérifier les messages nécessitant une attention urgente, en particulier lorsqu’une composante financière est présente.

L’amélioration des processus de vérification des e-mails devrait également porter ses fruits avec des alertes pour les messages en dehors de l’organisation ou en signalant les mots-clés généralement associés à une attaque BEC.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *