Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4938

Incidents associés

Incident 9555 Rapports
Global Cybercrime Network Storm-2139 Allegedly Exploits AI to Generate Deepfake Content

Loading...
Microsoft nomme les développeurs à l'origine des outils de jailbreaking d'IA dans le cadre d'une répression judiciaire contre la tempête 2139
enterprisesecuritytech.com · 2025

Dans une action historique contre l'exploitation de l'IA, Microsoft a démasqué les principaux développeurs de Storm-2139, un réseau mondial de cybercriminalité accusé de manipuler des modèles d'IA génératifs à des fins illicites. L'action en justice de l'entreprise vise quatre accusés nommément désignés qui auraient contourné les mesures de sécurité du service Azure OpenAI de Microsoft et d'autres plateformes d'IA, revendant ainsi des accès non autorisés à des acteurs malveillants du monde entier.

Un réseau mondial d'exploiteurs d'IA

L'unité de lutte contre la cybercriminalité de Microsoft (DCU) enquête sur Storm-2139 depuis décembre 2024, après avoir initialement porté plainte contre dix individus non identifiés du district Est de Virginie. La plainte mise à jour identifie désormais quatre individus :

  • Arian Yadegarnia (alias « Fiz ») d’Iran

  • Alan Krysiak (alias « Drago ») du Royaume-Uni

  • Ricky Yuen (alias « cg-dot ») de Hong Kong

  • Phát Phùng Tấn (alias « Asakuri ») du Vietnam

Selon Microsoft, ces individus ont joué un rôle essentiel dans le développement et la distribution d’outils permettant de contourner les barrières de sécurité de l’IA. En exploitant des identifiants volés auprès de sources accessibles au public, Storm-2139 a fourni un accès non autorisé à des systèmes d’IA générative, permettant aux utilisateurs de générer des images intimes non consensuelles de célébrités et d’autres contenus illicites.

« Lorsque les organisations adoptent des outils d’IA pour stimuler leur croissance, elles élargissent également leur surface d’attaque avec des applications contenant des données sensibles », a déclaré Rom Carmel, cofondateur et PDG d’Apono. Pour exploiter l'IA et le cloud en toute sécurité, l'accès aux systèmes sensibles doit être restreint en fonction des besoins, afin de minimiser les opportunités pour les acteurs malveillants.

Le guide Storm-2139 : Des créateurs aux utilisateurs

L'enquête de Microsoft révèle une opération structurée avec trois rôles principaux :

  • Créateurs : Ils ont développé des outils de jailbreaking d'IA qui contournent les mesures de sécurité intégrées.

  • Fournisseurs : Ils ont distribué et monétisé ces outils, en proposant des niveaux d'accès et des abonnements.

  • Utilisateurs : Ils ont acheté des accès illicites pour manipuler les systèmes d'IA et générer du contenu explicite.

Les opérations du réseau s'étendaient à plusieurs pays, avec des acteurs aux États-Unis, en Autriche, en Russie, en Inde, en Chine et au-delà. Microsoft a transmis ses conclusions aux forces de l'ordre américaines et internationales en vue d'éventuelles poursuites pénales.

Détournement d'IA : une menace croissante pour la cybersécurité

Les experts en sécurité avertissent que la cybercriminalité liée à l'IA évolue rapidement. Patrick Tiquet, vice-président Sécurité et Architecture chez Keeper Security (https://www.keepersecurity.com/), a souligné l'essor du « LLMJacking », un terme désignant le détournement de modèles de langage volumineux via des identifiants volés.

« L'exploitation par Storm-2139 de clés API exposées pour pirater les services GenAI souligne la nécessité d'une hygiène rigoureuse des identifiants et d'une surveillance continue », a expliqué Tiquet. « Les attaquants ont non seulement revendu des accès non autorisés, mais ont également manipulé activement les modèles d'IA pour générer du contenu nuisible, contournant ainsi les mécanismes de sécurité intégrés. »

Pour atténuer les risques, les experts recommandent d'appliquer le principe du moindre privilège, de mettre en œuvre une authentification forte et de stocker les clés API de manière sécurisée dans des coffres-forts numériques. La rotation régulière des identifiants, la détection des anomalies et la surveillance automatisée des menaces sont des mesures essentielles pour se défendre contre des attaques similaires.

Les cybercriminels réagissent à l'offensive juridique de Microsoft

L'approche agressive de Microsoft a déjà perturbé les opérations de Storm-2139. L'entreprise a réussi à s'emparer d'un site web clé utilisé par le groupe, déclenchant des tensions internes parmi les cybercriminels. Dans les canaux de discussion surveillés, les membres ont spéculé sur l'identité des « John Doe », certains révélant publiquement des informations personnelles sur d'autres pirates informatiques pour tenter de détourner l'attention.

Parallèlement, l'équipe juridique de Microsoft est devenue une cible directe. Des acteurs malveillants ont « doxé » les avocats de l'entreprise en publiant des informations personnelles, des photos et des coordonnées en ligne – une tactique de harcèlement couramment utilisée par les cybercriminels pour intimider les individus.

Alors que les cybercriminels se démènent, Microsoft reste déterminé à lutter contre les abus liés à l'IA. Elad Luz, responsable de la recherche chez Oasis Security, a souligné l'importance de sécuriser les comptes de service d'IA contre des menaces similaires.

« À une époque où la sécurité de l'IA est une priorité absolue, Microsoft prend des mesures », a déclaré Luz. Ils ont identifié et poursuivi en justice les acteurs malveillants qui exploitent les accès LLM volés. Les organisations doivent sécuriser proactivement les comptes de service, les principaux de service, les clés API et autres identités non humaines susceptibles de servir de points d'entrée à ce type d'attaques.

La lutte contre l'exploitation de l'IA continue

Malgré ces perturbations, les experts préviennent que l'exploitation de l'IA restera une menace persistante. J. Stephen Kowski, directeur technique de terrain chez SlashNext, prévient que le piratage LLM peut créer un effet domino, les identifiants compromis alimentant des abus généralisés au sein de multiples groupes malveillants.

« Le principal danger du piratage LLM réside dans l'effet domino : le vol initial d'identifiants conduit à des abus généralisés par de multiples acteurs malveillants », explique M. Kowski. « Au-delà de l'impact financier important lié aux frais d'utilisation non autorisée de l'IA, ces attaques permettent la création de contenus préjudiciables, notamment à caractère sexuel explicite, contournant ainsi les contrôles de sécurité intégrés à ces systèmes. » Pour contrer ces menaces, les entreprises doivent mettre en œuvre une authentification multifacteur pour les services d'IA, établir des autorisations strictes basées sur les rôles et surveiller les activités liées à l'IA pour détecter tout comportement anormal. Des mesures de sécurité proactives, telles que la journalisation de l'utilisation des API, la détection des anomalies de facturation et la réalisation d'audits réguliers, sont essentielles pour prévenir les accès non autorisés.

La campagne juridique de Microsoft contre la tempête Storm-2139 marque un tournant dans la lutte contre l'exploitation de l'IA. En exposant et en démantelant les réseaux malveillants, le géant technologique vise à créer un précédent pour le secteur, en privilégiant l'utilisation éthique et sécurisée des technologies d'IA. Mais comme Microsoft le reconnaît elle-même, la lutte contre les abus de l'IA est loin d'être terminée.

« Comme nous l'avons déjà dit, aucune perturbation ne se produit en un jour », a déclaré Microsoft. « Traquer les acteurs malveillants exige de la persévérance et une vigilance constante. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd