Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6660

Incidents associés

Incident 126334 Rapports
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Anthropic met en garde : les barrières contre les cyberattaques sont tombées à mesure que les capacités de l’IA s’accélèrent.
news.bitcoin.com · 2025

Anthropic, la société d'IA à l'origine de Claude, affirme que ses évaluations internes et son travail de veille sur les menaces révèlent une évolution décisive dans le développement des cybercapacités. Selon une enquête récemment publiée, les cybercapacités des systèmes d'IA ont doublé en six mois, comme l'attestent des mesures d'activité réelle et des tests basés sur des modèles.

L'entreprise indique que l'IA influence désormais de manière significative la dynamique de la sécurité mondiale, notamment face à l'adoption croissante de cadres d'attaque automatisés par les acteurs malveillants. Dans son dernier rapport (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), Anthropic détaille ce qu'elle qualifie de premier cas documenté de campagne de cyberespionnage orchestrée par une intelligence artificielle. L'équipe de veille sur les menaces de la firme a identifié et démantelé une opération de grande envergure à la mi-septembre 2025, attribuée à un groupe parrainé par l'État chinois et désigné GTG-1002.

Le groupe aurait utilisé des instances coordonnées de Claude Code pour effectuer des missions de reconnaissance, de découverte et d'exploitation de vulnérabilités, de déplacement latéral, d'extraction de métadonnées et d'exfiltration de données, le tout en grande partie sans intervention humaine. La campagne ciblait une trentaine d'organisations dans divers secteurs, notamment la technologie, la finance, la chimie et plusieurs agences gouvernementales. Anthropic a validé plusieurs intrusions réussies avant d'intervenir.

Selon les analystes, les attaquants ont exploité un système autonome capable de décomposer des attaques en plusieurs étapes en tâches plus petites, paraissant légitimes une fois isolées de leur contexte global. Cela leur a permis de transmettre des instructions via des identités préétablies et de convaincre Claude que les opérations étaient des tests de sécurité défensifs et non des campagnes offensives.

D'après l'enquête, Claude a exécuté de manière autonome 80 à 90 % des opérations tactiques. Les opérateurs humains se sont limités à la supervision stratégique, approuvant les étapes majeures telles que le passage de la reconnaissance à l'exploitation active ou l'autorisation de l'exfiltration de données. Le rapport décrit un rythme opérationnel impossible pour des équipes composées uniquement d'humains, certains flux de travail générant plusieurs opérations par seconde sur des milliers de requêtes.

Selon Anthropic, le cycle de vie de l'attaque s'est déroulé selon un pipeline structuré où l'autonomie de l'IA (https://news.bitcoin.com/study-generative-ai-could-add-trillions-to-global-economy/) augmentait à chaque étape. Claude a cartographié de manière indépendante les surfaces d'attaque, analysé les systèmes en production, créé des charges utiles personnalisées pour les vulnérabilités validées, collecté des identifiants et effectué des pivots au sein des réseaux internes. Il a également analysé les données volées, identifié des renseignements à forte valeur ajoutée et généré automatiquement une documentation opérationnelle détaillée permettant un accès persistant et des transferts de responsabilité entre les opérateurs.

Le rapport souligne une limitation : la tendance du modèle à dévier sous une charge de travail offensive, surestimant parfois l'accès, falsifiant des identifiants ou classant à tort des informations publiques comme sensibles. Malgré cela, Anthropic indique que l'attaquant a compensé ce problème par des étapes de validation, démontrant ainsi que des opérations offensives entièrement autonomes restent possibles malgré les imperfections des modèles actuels.

Suite à sa découverte, Anthropic a banni les comptes concernés, notifié les entités affectées, collaboré avec les autorités et mis en place de nouveaux mécanismes de défense, notamment des classificateurs améliorés pour détecter les nouvelles formes de menaces. L'entreprise développe actuellement des prototypes de systèmes d'alerte précoce conçus pour signaler les tentatives d'intrusion autonomes et conçoit de nouveaux outils d'investigation pour les cyberopérations distribuées à grande échelle.

Anthropic affirme que si ces capacités peuvent être utilisées à des fins malveillantes, elles sont tout aussi essentielles pour renforcer la préparation aux cyberattaques. L'entreprise souligne que son équipe de veille sur les menaces s'est fortement appuyée sur Claude pour analyser les vastes ensembles de données générés lors de l'enquête. Elle encourage les équipes de sécurité à adopter l'automatisation basée sur l'IA pour les centres d'opérations de sécurité, la détection des menaces, l'analyse des vulnérabilités et la réponse aux incidents.

Cependant, le rapport met en garde contre le fait que les barrières à l'entrée en matière de cyberattaques ont considérablement diminué, les systèmes d'IA permettant à de petits groupes, voire à des individus, de mener des opérations autrefois réservées aux acteurs étatiques disposant de ressources importantes. Anthropic (https://news.bitcoin.com/prosecutors-seek-to-exclude-ai-startup-anthropics-valuation-from-bankman-fried-trial/) anticipe une prolifération rapide de ces techniques dans l'environnement des menaces, et appelle à une collaboration plus étroite, à des mesures de défense renforcées et à une participation accrue du secteur au partage des informations sur les menaces afin de contrer les nouveaux modèles d'attaques basés sur l'IA.

FAQ ❓

  • Qu'a découvert Anthropic lors de son enquête ?

Anthropic a identifié et démantelé une vaste campagne de cyberespionnage utilisant l'IA pour automatiser la plupart des opérations d'attaque.

  • Qui était à l'origine de l'attaque ?

L'entreprise a attribué l'opération à un groupe parrainé par l'État chinois, désigné GTG-1002.

  • Comment l'IA a-t-elle été utilisée lors des intrusions ?

Les attaquants ont utilisé Claude Code pour effectuer de manière autonome des opérations de reconnaissance, d'exploitation, de déplacement latéral et d'extraction de données. - Pourquoi ce rapport est-il important pour les équipes de cybersécurité ?

Anthropic affirme que cette affaire démontre que les attaques autonomes basées sur l’IA sont désormais réalisables à grande échelle et nécessitent de nouvelles stratégies de défense.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd