OpenAI a supprimé les comptes utilisés par des groupes de menaces parrainés par des États d’Iran, de Corée du Nord, de Chine et de Russie, qui abusaient de son chatbot d’intelligence artificielle, ChatGPT.
L’organisation de recherche sur l’IA a pris des mesures contre des comptes spécifiques associés aux groupes de piratage qui utilisaient abusivement ses services de modèle de langage étendu (LLM) à des fins malveillantes après avoir reçu des informations clés de l’équipe de renseignement sur les menaces de Microsoft.
Dans un rapport séparé, Microsoft fournit plus de détails sur comment et pourquoi ces acteurs de la menace avancés ont utilisé ChatGPT.
L’activité associée aux groupes de menaces suivants a été interrompue sur la plate-forme:
- Blizzard forestier (Strontium) [Russie]: A utilisé ChatGPT pour mener des recherches sur les technologies satellitaires et radar pertinentes pour les opérations militaires et pour optimiser ses cyberopérations avec des améliorations de script.
- Grésil émeraude (Thallium) [Corée du Nord]: Utilisation de ChatGPT pour la recherche sur la Corée du Nord et la génération de contenu de spear-phishing, ainsi que la compréhension des vulnérabilités (comme CVE-2022-30190 « Follina ») et le dépannage des technologies Web.
- Crimson Sandstorm (Curium) [Iran]: Engagé avec ChatGPT pour l’assistance en ingénierie sociale, le dépannage des erreurs, le développement.NET et le développement de techniques d’évasion.
- Charcoal Typhoon (Chromium) [Chine]: Interagi avec ChatGPT pour aider au développement d’outils, à la création de scripts, à la compréhension des outils de cybersécurité et à la génération de contenu d’ingénierie sociale.
- Salmon Typhoon (Sodium) [Chine]: A employé des LLM pour des enquêtes exploratoires sur un large éventail de sujets, y compris des informations sensibles, des personnalités de premier plan et la cybersécurité, afin d’élargir leurs outils de collecte de renseignements et d’évaluer le potentiel des nouvelles technologies pour l’approvisionnement en informations.
En général, les acteurs de la menace ont utilisé les grands modèles linguistiques pour améliorer leurs capacités stratégiques et opérationnelles, y compris la reconnaissance, l’ingénierie sociale, les tactiques d’évasion et la collecte d’informations génériques.
Aucun des cas observés n’implique l’utilisation de LLM pour développer directement des logiciels malveillants ou des outils d’exploitation personnalisés complets.
Au lieu de cela, l’assistance au codage proprement dite concernait des tâches de niveau inférieur telles que la demande de conseils d’évasion, la création de scripts, la désactivation de l’antivirus et généralement l’optimisation des opérations techniques.
En janvier, un rapport du National Cyber Security Center (NCSC) du Royaume-Uni a prédit que d’ici 2025, les opérations de menaces persistantes avancées sophistiquées (APT) bénéficieront d’outils d’IA à tous les niveaux, en particulier dans le développement de logiciels malveillants personnalisés évasifs.
L’année dernière, cependant, selon les conclusions d’OpenAI et de Microsoft, il y a eu une augmentation des segments d’attaques APT comme le phishing/l’ingénierie sociale, mais le reste était plutôt exploratoire.
OpenAI dit qu’il continuera à surveiller et à perturber les pirates informatiques soutenus par l’État en utilisant une technologie de surveillance spécialisée, des informations provenant de partenaires de l’industrie et des équipes dédiées chargées d’identifier les modèles d’utilisation suspects.
« Nous tirons les leçons des abus de ces acteurs et les utilisons pour éclairer notre approche itérative de la sécurité », lit-on dans le message d’OpenAI.
« Comprendre comment les acteurs malveillants les plus sophistiqués cherchent à utiliser nos systèmes pour nuire nous donne un signal sur des pratiques qui pourraient se généraliser à l’avenir et nous permet de faire évoluer continuellement nos garanties », a ajouté la société.