Incidents associés
Une équipe soutenue par l'État chinois a utilisé une intelligence artificielle américaine pour mener l'une des attaques d'espionnage les plus sophistiquées jamais enregistrées. Selon un rapport de novembre de l'équipe de veille sur les menaces d'Anthropic, le logiciel Claude Code a automatisé jusqu'à 90 % des tâches répétitives.
L'opération, détectée mi-septembre et identifiée sous le nom de code GTG-1002, visait une trentaine d'organisations et a permis de confirmer plusieurs intrusions. Anthropic explique que le groupe a manipulé son modèle pour qu'il agisse comme une armée de testeurs d'intrusion autonomes : ils scannaient les réseaux, créaient des failles de sécurité, se déplaçaient latéralement et exfiltraient des données à un rythme « physiquement impossible ». L'intervention humaine se limitait principalement à valider les étapes clés.
Les enquêteurs ont bloqué les comptes, notifié les entités concernées et collaboré avec les autorités après avoir cartographié la campagne.
Nous avons déjoué une campagne d'espionnage très sophistiquée menée par une IA.
L'attaque ciblait de grandes entreprises technologiques, des institutions financières, des entreprises chimiques et des agences gouvernementales. Nous sommes presque certains que l'auteur de la menace était un groupe parrainé par l'État chinois.
--- Anthropic (@AnthropicAI) 13 novembre 2025
« Il s'agit du premier cas documenté d'IA agentielle ayant réussi à accéder à des cibles de grande valeur confirmées à des fins de collecte de renseignements », indique le rapport, citant de grandes entreprises technologiques et des agences gouvernementales parmi les victimes.
La chaîne d'outils n'était pas développée en interne. Le système reposait essentiellement sur des outils de sécurité open source et sur le modèle développé aux États-Unis par Anthropic pour les intégrer.
La stratégie de GTG-1002 consistait à manipuler l'IA par ingénierie sociale, en se faisant passer pour des défenseurs légitimes afin d'inciter Claude Code à accomplir des tâches offensives. Une fois préparé, le modèle gérait la reconnaissance, la découverte de vulnérabilités, les tests d'authentification, les déplacements latéraux et le tri des données à grande échelle. Anthropic estime que l'IA a exécuté 80 à 90 % des opérations tactiques avec une supervision humaine minimale.
Cependant, des limites existaient : Claude présentait parfois des hallucinations, revendiquant des identifiants invalides ou vantant des « découvertes » publiques, obligeant les opérateurs à valider ses résultats. Ces frictions ont ralenti, sans toutefois l'arrêter, la campagne, qu'Anthropic qualifie d'« escalade significative » par rapport aux systèmes d'assistance à l'IA qu'elle a détaillés cet été.
Anthropic, de son côté, affirme que les mêmes capacités qui permettent ces abus sont désormais essentielles à la défense et indique qu'elle développe des systèmes d'alerte précoce pour les attaques autonomes.
L'entreprise n'a pas divulgué l'identité des victimes.