Incidents associés
14 novembre (UPI) – Le géant technologique Anthropic a confirmé que des acteurs chinois étaient parvenus à prendre le contrôle de son modèle d'IA, Claude, afin de mener une cyberattaque de grande envergure avec une intervention humaine minimale.
Jeudi, des responsables d'Anthropic ont indiqué dans un article de blog (https://www.anthropic.com/news/disrupting-AI-espionage) publié mi-septembre avoir détecté une « activité suspecte » qui, après enquête, s'est révélée être une « campagne d'espionnage très sophistiquée ».
Anthropic a ajouté être « quasi certaine » qu'il s'agissait d'un groupe cybernétique soutenu par la Chine.
Le groupe criminel d'État chinois, baptisé « GTG-1002 » par Anthropic, aurait détourné son outil d'intelligence artificielle Claude afin de mener entre 80 et 90 % d'une cyberattaque contre une trentaine de cibles internationales.
Selon Anthropic, le groupe a ciblé de nombreuses agences gouvernementales, institutions financières, usines chimiques et grandes entreprises technologiques.
L'infiltration a réussi dans un petit nombre de cas, précise l'entreprise.
Le piratage informatique lié à l'IA est un phénomène relativement rare ces dernières années. Mais Anthropic, une entreprise soutenue par Amazon, affirme que cet incident récent est, selon elle, le premier cas documenté d'attaque à grande échelle menée principalement par une intelligence artificielle.
Anthropic assure que les mesures de sécurité mises en place sont conçues pour empêcher toute utilisation abusive de son produit.
Cependant, l'entreprise explique que des pirates, se faisant passer pour des testeurs de sécurité pour une société de cybersécurité légitime, ont réussi à contourner les restrictions de Claude en décomposant les requêtes en petites demandes afin d'échapper à la détection.
Anthropic indique avoir choisi de partager ces informations afin d'aider le secteur de la cybersécurité à améliorer ses mécanismes de défense contre de futures attaques similaires menées par des pirates informatiques utilisant l'IA.
« La quantité de travail effectuée par l'IA aurait nécessité un temps considérable pour une équipe humaine », précise Anthropic, basée en Californie.
L'entreprise technologique estime que l'attaque n'a probablement nécessité qu'une intervention humaine sporadique, « peut-être » à quatre ou six « points de décision critiques » par campagne de piratage.
« L'IA a effectué des milliers de requêtes par seconde, une vitesse d'attaque qu'il aurait été tout simplement impossible pour des pirates informatiques humains d'égaler », poursuit l'article de blog.
« Les cyberattaques automatisées peuvent se déployer beaucoup plus rapidement que les opérations menées par des humains et sont capables de submerger les défenses traditionnelles », a déclaré Jake Moore, conseiller mondial en cybersécurité pour la société de sécurité Internet ESET, à Business Insider.
En février dernier, Microsoft et OpenAI ont révélé publiquement que leurs outils d'intelligence artificielle étaient utilisés par des pirates informatiques gouvernementaux étrangers en Chine, en Russie, en Iran et en Corée du Nord pour améliorer la cyberguerre.
Jeudi, Moore a indiqué que l'attaque d'Anthropic n'était pas seulement un exemple de ce que beaucoup craignaient, mais que « l'impact plus large réside désormais dans la manière dont ces attaques permettent à des acteurs peu qualifiés de lancer des intrusions complexes à un coût relativement faible ».
« L'IA est utilisée aussi bien pour la défense que pour l'attaque ; la sécurité dépend donc désormais autant de l'automatisation et de la rapidité que de la seule expertise humaine au sein des organisations », a-t-il déclaré.