Incident 1263: L'opérateur étatique chinois (GTG-1002) utiliserait le code Claude pour des activités de cyberespionnage autonomes.
Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
Nous avons récemment avancé l'hypothèse qu'un point d'inflexion avait été atteint en cybersécurité : les modèles d'IA sont devenus véritablement utiles aux opérations de cybersécurité, pour le meilleur et pour le pire. Cette affirmation rep…
Des pirates informatiques parrainés par l'État chinois ont utilisé la technologie d'intelligence artificielle d'Anthropic pour automatiser des intrusions dans de grandes entreprises et des gouvernements étrangers lors d'une campagne de pira…
Des cyberespions chinois ont utilisé l'outil d'intelligence artificielle Claude Code d'Anthropic pour tenter de s'introduire dans les systèmes informatiques d'une trentaine d'entreprises et d'organismes gouvernementaux de premier plan. Selo…
Anthropic, la société d'IA à l'origine de Claude, affirme que ses évaluations internes et son travail de veille sur les menaces révèlent une évolution décisive dans le développement des cybercapacités. Selon une enquête récemment publiée, l…
Une équipe soutenue par l'État chinois a utilisé une intelligence artificielle américaine pour mener l'une des attaques d'espionnage les plus sophistiquées jamais enregistrées. Selon un rapport de novembre de l'équipe de veille sur les mena…
Des opérateurs chinois présumés ont utilisé l'outil de codage d'IA d'Anthropic (https://www.axios.com/2025/09/29/anthropic-claude-sonnet-coding-agent) pour cibler une trentaine d'organisations internationales et ont obtenu des résultats pos…
Anthropic a annoncé jeudi que des pirates informatiques soutenus par l'État chinois avaient utilisé Claude, son modèle d'intelligence artificielle, pour automatiser une trentaine d'attaques contre des entreprises et des gouvernements lors d…

Les responsables de la sécurité sont confrontés à une nouvelle forme de menace autonome : Anthropic (https://www.anthropic.com/) détaille la première campagne de cyberespionnage orchestrée par une IA.
Dans un rapport publié cette semaine, l…
Anthropic a déclaré qu'un pirate informatique soupçonné d'être lié à un État a manipulé l'un de ses outils de programmation basés sur l'IA pour mener une campagne d'espionnage sophistiquée en septembre contre une trentaine d'organisations m…
Des acteurs malveillants parrainés par l'État chinois ont utilisé une technologie d'intelligence artificielle (IA) développée par Anthropic pour orchestrer des cyberattaques automatisées dans le cadre d'une campagne d'espionnage très sophis…
Une étude alarmante du géant de l'intelligence artificielle Anthropic révèle qu'un groupe d'espionnage chinois a utilisé les systèmes d'IA de l'entreprise pour gérer la majorité des tâches lors de cyberattaques contre une trentaine d'entité…
Des chercheurs d'Anthropic ont déclaré avoir récemment observé la « première campagne de cyberespionnage orchestrée par l'IA » après avoir détecté des pirates informatiques liés à l'État chinois utilisant l'outil Claude AI de l'entreprise d…
Anthropic rapporte qu'un groupe de cybermenaces parrainé par l'État chinois, identifié sous le nom de GTG-1002, a mené une opération d'espionnage informatique largement automatisée grâce à l'exploitation abusive du modèle d'IA Claude Code d…
14 novembre (UPI) – Le géant technologique Anthropic a confirmé que des acteurs chinois étaient parvenus à prendre le contrôle de son modèle d'IA, Claude, afin de mener une cyberattaque de grande envergure avec une intervention humaine mini…
Planification de menus, thérapie, rédaction de dissertations, cyberattaques mondiales ultra-sophistiquées : les usages innovants des chatbots IA de dernière génération ne cessent de se multiplier.
Une étape alarmante a été franchie cette se…
La start-up Anthropic, spécialisée dans l'IA et axée sur la sécurité, affirme qu'un groupe parrainé par l'État chinois a utilisé Claude Code, son outil de codage automatisé, pour mener une cyberattaque très sophistiquée contre une trentaine…

