Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4937

Incidents associés

Incident 9555 Rapports
Global Cybercrime Network Storm-2139 Allegedly Exploits AI to Generate Deepfake Content

Loading...
Microsoft identifie les développeurs à l'origine d'un prétendu système de piratage informatique génératif à forfait
cyberscoop.com · 2025

Microsoft a identifié des individus originaires d'Iran, de Chine, du Vietnam et du Royaume-Uni comme principaux acteurs d'un prétendu stratagème international visant à pirater et vendre des comptes Microsoft susceptibles de contourner les consignes de sécurité des outils d'IA générative.

En décembre, Microsoft a déposé une requête auprès d'un tribunal de Virginie pour saisir l'infrastructure et les logiciels de dix individus anonymes qui, selon l'entreprise, ont mené une opération de piratage informatique utilisant des clés API Microsoft volées pour vendre l'accès à des comptes Azure OpenAI à des tiers à l'étranger. Ces comptes ont ensuite été utilisés pour générer du « contenu préjudiciable », notamment des milliers d'images enfreignant les consignes de sécurité de Microsoft et d'OpenAI.

Auparavant, Microsoft avait déclaré ne pas connaître les noms ni l'identité des dix individus, ni leur lieu de résidence, les identifiant uniquement par les sites web et les outils spécifiques qu'ils utilisaient, et affirmant qu'au moins trois d'entre eux semblaient être des fournisseurs du service résidant hors des États-Unis.

Dans une plainte modifiée rendue publique jeudi, l'entreprise a identifié quatre personnes : Arian Yadegarnia (alias « Fiz ») d'Iran, Ricky Yuen (alias « cg-dot ») de Hong Kong, Phát Phùng Tấn (alias « Asakuri ») du Vietnam et Alan Krysiak (alias « Drago ») du Royaume-Uni, comme des acteurs clés « au cœur d'un réseau mondial de cybercriminalité » que Microsoft identifie comme Storm-2139.

Organigramme de Storm-2319 (Source : Microsoft)

Microsoft a également indiqué avoir identifié un acteur dans l'Illinois et un autre en Floride comme faisant partie du réseau, mais a refusé de les nommer « afin d'éviter toute interférence avec d'éventuelles enquêtes criminelles ». L'entreprise a indiqué préparer des saisines criminelles auprès des autorités américaines et étrangères.

L'entreprise n'a pas précisé en quoi les images générées violaient les consignes de sécurité, mais Steven Masada, avocat général adjoint de l'unité de lutte contre la cybercriminalité de Microsoft, a indiqué dans un billet de blog qu'au moins certaines d'entre elles constituaient des tentatives de création de fausses images de célébrités et de personnalités publiques.

« Nous ne citons pas les noms de célébrités afin de préserver la confidentialité de leurs identités et avons exclu les images de synthèse et les messages de nos dossiers afin d'empêcher la diffusion de contenus préjudiciables », a écrit Masada dans un blog jeudi.

L'action en justice initiale semble avoir semé la panique au sein du groupe, Microsoft ayant partagé des captures d'écran de forums de discussion où des membres spéculaient sur l'identité des autres personnes citées dans la plainte. Le groupe a également publié des informations personnelles et des photos de l'avocat de Microsoft en charge de l'affaire.

Certaines des personnes citées semblent également avoir contacté Microsoft pour tenter de rejeter la faute sur d'autres membres du groupe ou d'autres parties.

Un message reçu par les avocats de Microsoft identifiait un serveur Discord prétendument géré par Krysiak, proposant de vendre l'accès à Azure pour plus de 100 $, ainsi que des liens vers des pages GitHub dédiées à leurs logiciels et d'autres ressources. L'utilisateur a supplié Microsoft d'enquêter et a proposé de fournir davantage d'informations.

« Les anciens que vous poursuivez ne vendent rien. Ces types, eux, si », a écrit l'individu, ajoutant plus tard : « Il s'agit de la véritable entreprise, contrairement à l'autre groupe que vous recherchez. »

  Un autre courriel envoyé aux avocats de Microsoft leur conseillait de « chercher un certain drago ».

« C'est la personne que vous recherchez, il utilise et vend Azure », a écrit le compte de messagerie whistling@dmc[]chat.  

 Capture d'écran d'un message envoyé aux avocats de Microsoft pour tenter de rejeter la responsabilité du piratage d'Azure sur d'autres parties (Source : Microsoft)

Selon la plainte initiale de l'entreprise, les individus « ont exploité des identifiants clients exposés, récupérés auprès de sources publiques, pour accéder illégalement à des comptes de certains services d'IA générative ».

« Ils ont ensuite modifié les fonctionnalités de ces services et en ont revendu l'accès à d'autres acteurs malveillants, en leur fournissant des instructions détaillées sur la manière de générer des contenus préjudiciables et illicites, notamment des images intimes non consensuelles de célébrités et d'autres contenus sexuellement explicites », affirme la plainte.

Alors que des entreprises comme Microsoft et OpenAI développent et commercialisent des outils d'IA générative, les gouvernements et les groupes de la société civile les ont exercées poussés à développer des protections techniques rendant plus difficile l'utilisation abusive de leurs modèles pour créer des deepfakes, diffuser de la désinformation ou divulguer des informations potentiellement dangereuses, comme la fabrication d'une bombe ou la conception de logiciels malveillants.

Alors que certains groupes de la société civile américaine ont critiqué les entreprises d’IA pour leur manque de mesures de sécurité et de transparence concernant les engagements publics visant à empêcher que leurs outils ne soient utilisés pour influencer les élections, les responsables du renseignement américain ont indiqué l’année dernière que les acteurs étrangers cherchant à s’immiscer dans les élections américaines avaient des difficultés à accéder à des outils d’IA générative commerciaux de haute qualité pour alimenter leurs campagnes de désinformation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd