Incidents associés
Principaux points à retenir de ZDNET
-
Anthropic a documenté une cyberattaque de grande ampleur utilisant l'IA.
-
Anthropic affirme qu'un groupe parrainé par l'État chinois en est responsable.
-
Cette attaque pourrait être une première du genre.
La première campagne de cyberattaque de grande envergure exploitant l'intelligence artificielle (IA) comme un outil à part entière a été enregistrée.
Comme l'a révélé le Wall Street Journal, Anthropic, la société à l'origine de Claude, un assistant IA, a publié un rapport (PDF) documentant l'utilisation abusive de ses modèles d'IA, détournés lors d'une vaste campagne d'attaques ciblant simultanément plusieurs organisations.
Que s'est-il passé ?
Mi-septembre, Anthropic a détecté une opération de cyberespionnage très sophistiquée utilisant l'IA tout au long du cycle d'attaque.
Claude Code, une IA agentique, a été détournée pour créer un système d'attaque automatisé capable de réaliser des opérations de reconnaissance, de découverte de vulnérabilités, d'exploitation, de déplacement latéral, de collecte d'identifiants, d'analyse de données et d'exfiltration. De plus, ces étapes ont été exécutées de manière largement autonome, les opérateurs humains assurant une supervision de base après avoir chargé Claude Code d'orchestrer et d'effectuer des tests d'intrusion, autrement dit, de se faire passer pour un défenseur.
Non seulement l'IA a découvert des vulnérabilités dans les organisations cibles, mais elle a également permis leur exploitation, le vol de données et d'autres activités malveillantes post-exploitation.
Selon Anthropic, non seulement des organisations de premier plan ont été ciblées, mais 80 à 90 % des opérations tactiques ont été menées indépendamment par l'IA.
« En présentant ces tâches à Claude comme des demandes techniques de routine, via des messages soigneusement élaborés et des profils prédéfinis, l'attaquant a pu l'inciter à exécuter des composants individuels de chaînes d'attaque sans avoir accès au contexte malveillant global », a déclaré Anthropic.
Qui était responsable et comment Anthropic a-t-elle réagi ?
Selon Anthropic, un groupe parrainé par l'État chinois était vraisemblablement au cœur de l'opération. Désormais identifié sous le nom de GTG-1002 et considéré comme disposant de ressources importantes et d'un soutien étatique, ce groupe a utilisé Claude dans sa campagne, mais on ne sait que peu de choses à son sujet.
Dès qu'Anthropic a découvert l'utilisation abusive de ses technologies, l'entreprise a rapidement banni les comptes associés à GTG-1002 et renforcé ses systèmes de détection d'activités malveillantes. Ces mesures devraient permettre de découvrir ce que l'entreprise appelle de « nouveaux modes opératoires », comme le jeu de rôle utilisé par GTG-1002 pour faire croire au système qu'il s'agissait d'un véritable outil de test d'intrusion axé sur la défense.
Anthropic développe également des prototypes de mesures de détection précoce pour stopper les cyberattaques autonomes, et les autorités ainsi que les acteurs du secteur ont été informés de l'incident.
L'entreprise a toutefois lancé un avertissement à l'ensemble de la communauté de la cybersécurité, l'exhortant à rester vigilante :
« La communauté de la cybersécurité doit partir du principe qu'un changement fondamental s'est produit : les équipes de sécurité doivent expérimenter l'application de l'IA à la défense dans des domaines tels que l'automatisation des SOC, la détection des menaces, l'évaluation des vulnérabilités et la réponse aux incidents, et acquérir de l'expérience sur les solutions qui fonctionnent dans leurs environnements spécifiques », a déclaré Anthropic. « Nous devons également continuer d'investir dans les mesures de protection des plateformes d'IA afin de prévenir toute utilisation malveillante. Les techniques que nous décrivons aujourd'hui vont se répandre dans le paysage des menaces, ce qui rend le partage des informations sur les menaces au sein du secteur, l'amélioration des méthodes de détection et le renforcement des contrôles de sécurité d'autant plus essentiels. »
Cette attaque est-elle importante ?
Nous avons récemment observé les premiers signes indiquant que des acteurs malveillants du monde entier explorent comment l'IA peut être exploitée dans des outils, des techniques et des attaques malveillantes. Cependant, jusqu'à présent, ces pratiques étaient relativement limitées – du moins publiquement – à une automatisation et une assistance mineures, à des techniques de phishing améliorées, à la génération dynamique de code (https://www.zdnet.com/article/google-spots-malware-in-the-wild-that-morphs-mid-attack-thanks-to-ai/), aux arnaques par e-mail et à l'obfuscation de code.
Il semble qu'à peu près au même moment que l'affaire Anthropic, OpenAI, les créateurs de ChatGPT, publiaient leur propre rapport (https://www.zdnet.com/article/ai-is-making-cybercriminal-workflows-more-efficient-too-openai-finds/) indiquant qu'il y avait eu des abus, mais peu ou pas de preuves que les modèles OpenAI étaient détournés pour acquérir de « nouvelles capacités offensives ». Parallèlement, GTG-1002 s'employait activement à mettre en œuvre l'IA pour cibler automatiquement et simultanément des organisations.
(Information : Ziff Davis, société mère de ZDNET, a intenté une action en justice contre OpenAI en avril 2025, l’accusant d’avoir enfreint ses droits d’auteur concernant l’entraînement et l’exploitation de ses systèmes d’IA.)
Une trentaine d’organisations ont été ciblées. Seules quelques-unes de ces attaques ont abouti, en raison d’hallucinations de l’IA et de divers autres problèmes, notamment la falsification de données et des mensonges flagrants concernant l’obtention d’identifiants valides. Ainsi, bien que notable, ce cas représente un progrès technique, mais ne marque pas encore l’apocalypse de l’IA.
Ou, comme l’a souligné Anthropic, cette découverte « représente un changement fondamental dans la manière dont les acteurs malveillants utilisent l’IA ».