Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6643

Incidents associés

Incident 126334 Rapports
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Anthropic met en garde contre l'utilisation abusive de son outil d'IA par un acteur lié à un État dans une campagne d'espionnage sophistiquée.
cybersecuritydive.com · 2025

Anthropic a déclaré qu'un pirate informatique soupçonné d'être lié à un État a manipulé l'un de ses outils de programmation basés sur l'IA pour mener une campagne d'espionnage sophistiquée en septembre contre une trentaine d'organisations majeures à travers le monde, selon un article de blog publié jeudi.

Les pirates ont utilisé Claude Code, l'outil de programmation de l'entreprise, pour cibler diverses organisations, notamment des entreprises chimiques, de grandes entreprises technologiques, des institutions financières et des agences gouvernementales. L'auteur de la menace, désigné GTG-1002 par Anthropic, a réussi à pénétrer les systèmes d'un petit nombre de cibles, selon l'entreprise.

Anthropic affirme que cette attaque pourrait être l'une des premières cyberattaques de grande envergure menées sans intervention humaine significative. Entre 80 % et 90 % de l'attaque a été réalisée par l'IA, selon Anthropic, l'intervention humaine n'ayant été nécessaire qu'à quatre à six moments clés.

Anthropic a indiqué avoir banni plusieurs comptes liés à l'attaque, notifié les organisations concernées et signalé les attaques aux autorités compétentes.

L'article précise que les opérateurs humains ont choisi les cibles de l'attaque, puis développé un système pour lancer les piratages. L'outil Claude Code a été configuré pour exécuter automatiquement les attaques.

Comme cet outil est conçu pour éviter d'être utilisé à des fins malveillantes, les attaquants ont réussi à le pirater, ce qui leur a permis de contourner ses protections intégrées.

Selon l'article, les différentes étapes de l'attaque ont été décomposées en tâches simples, que l'outil a interprétées comme des actions anodines et progressives, sans bien comprendre le contexte de ce qui lui était demandé. Pour tromper l'utilisateur, les pirates ont convaincu Claude qu'ils travaillaient pour une entreprise de cybersécurité et que leurs actions faisaient partie de tests de sécurité.

L'outil a servi à effectuer des reconnaissances et à localiser des bases de données sensibles. Claude a identifié et testé les failles de sécurité de ces systèmes ciblés, puis a développé son propre code d'exploitation. Après avoir collecté les identifiants et mots de passe, Claude a été utilisé pour rechercher des comptes privilégiés, créer des portes dérobées malveillantes et mener des attaques de grande envergure.

C'est la première fois que des analystes observent un agent d'IA utilisé pour automatiser une part aussi importante d'une attaque en plusieurs étapes menée par un véritable acteur malveillant en conditions réelles.

« Il s'agit d'un moment crucial pour la transformation des agents d'IA en outils destinés aux cyberopérations offensives », déclare Allie Mellen, analyste principale en sécurité et risques chez Forrester.

Cette révélation d'Anthropic intervient plus d'une semaine après la publication d'un rapport du Google Threat Intelligence Group montrant que des pirates informatiques utilisent des logiciels malveillants dotés d'IA dans des attaques actives.

Les chercheurs ont identifié des familles de logiciels malveillants, notamment Prompflux et Promptsteal, qui exploitent des modèles de langage complexes.

Des acteurs étatiques de Corée du Nord, d'Iran et de Chine ont également utilisé Gemini, la technologie d'IA de Google, pour optimiser leurs opérations.

Les chercheurs de Google estiment que ces attaques ne sont probablement pas des incidents isolés, mais plutôt le signe d'une tendance croissante.

« Nombreux sont ceux qui feront bientôt de même, ou qui l'ont déjà fait », a déclaré John Hultquist, analyste principal chez GTIG, à Cybersecurity Dive. « La véritable question est de savoir si nous pouvons nous adapter aussi rapidement que notre adversaire. »

Note de la rédaction : Ajout d'un commentaire de Forrester.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd