Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6666

Incidents associés

Incident 126334 Rapports
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Une entreprise spécialisée en intelligence artificielle affirme avoir stoppé une campagne de cyberattaques commanditée par l'État chinois.
theguardian.com · 2025

Une entreprise leader en intelligence artificielle affirme avoir déjoué une campagne de « cyberespionnage » orchestrée par la Chine, capable d'infiltrer des institutions financières et des agences gouvernementales quasiment sans intervention humaine.

Anthropic, société américaine, a déclaré que son outil de programmation, Claude Code, avait été manipulé par un groupe parrainé par l'État chinois pour attaquer 30 entités à travers le monde en septembre, réussissant ainsi plusieurs intrusions.

Dans un article de blog publié jeudi (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), l'entreprise a souligné qu'il s'agissait d'une « escalade significative » par rapport aux précédentes attaques utilisant l'IA qu'elle avait surveillées, car Claude a agi de manière largement autonome : 80 à 90 % des opérations liées à l'attaque ont été réalisées sans intervention humaine.

« L’acteur a réalisé ce que nous pensons être le premier cas documenté de cyberattaque à grande échelle exécutée en grande partie sans intervention humaine », a-t-on écrit.

Anthropic n’a pas précisé quelles institutions financières et agences gouvernementales avaient été ciblées, ni ce que les pirates avaient exactement accompli – se contentant d’indiquer qu’ils avaient pu accéder aux données internes de leurs cibles.

L’organisation a déclaré que Claude avait commis de nombreuses erreurs lors de l’exécution des attaques, allant jusqu’à inventer des faits concernant ses cibles ou à prétendre avoir « découvert » des informations librement accessibles.

Des responsables politiques et certains experts ont déclaré que ces conclusions étaient un signe inquiétant de la capacité accrue de certains systèmes d’IA : des outils comme Claude sont désormais capables de fonctionner de manière autonome pendant de longues périodes.

« Réveillez-vous ! Cela va nous détruire – plus vite qu'on ne le pense – si nous ne faisons pas de la réglementation de l'IA une priorité nationale dès demain », a tweeté le sénateur américain Chris Murphy [https://twitter.com/ChrisMurphyCT/status/1989120215171625149] sur X en réaction à ces conclusions.

« Les systèmes d'IA peuvent désormais effectuer des tâches qui exigeaient auparavant des opérateurs humains qualifiés », a déclaré Fred Heiding, chercheur en sécurité informatique à l'université Harvard. « Il devient tellement facile pour les attaquants de causer de réels dégâts. Les entreprises spécialisées dans l'IA ne prennent pas leurs responsabilités. »

D'autres experts en cybersécurité se sont montrés plus sceptiques, pointant du doigt les affirmations exagérées concernant les cyberattaques alimentées par l'IA ces dernières années – comme par exemple un « craqueur de mots de passe » basé sur l'IA de 2023 qui n'était pas plus performant que les méthodes conventionnelles – et ont suggéré qu'Anthropic cherchait à créer un engouement autour de l'IA.

« Pour moi, Anthropic décrit une automatisation sophistiquée, rien de plus », a déclaré Michał Woźniak, expert indépendant en cybersécurité. « La génération de code est impliquée, mais ce n'est pas de l'« intelligence », c'est juste du copier-coller sophistiqué. »

Woźniak a déclaré que la publication d'une faille de sécurité par Anthropic détournait l'attention d'un problème de cybersécurité plus important : l'intégration par les entreprises et les gouvernements d'outils d'IA « complexes et mal compris » dans leurs opérations, sans les maîtriser, ce qui les expose à des vulnérabilités. La véritable menace, selon lui, résidait dans les cybercriminels eux-mêmes et dans les pratiques de cybersécurité laxistes.

Anthropic, comme toutes les entreprises leaders en IA, dispose de garde-fous censés empêcher ses modèles de contribuer aux cyberattaques ou de promouvoir des actes malveillants. Cependant, l'entreprise a indiqué que les pirates informatiques étaient parvenus à contourner ces garde-fous en demandant à Claude de se faire passer pour un « employé d'une entreprise de cybersécurité légitime » effectuant des tests.

Woźniak a ajouté : « La valorisation d'Anthropic avoisine les 180 milliards de dollars, et l'entreprise est toujours incapable de se prémunir contre le piratage de ses outils par une tactique digne d'un adolescent de 13 ans voulant faire une blague téléphonique. »

Marius Hobbhahn, fondateur d'Apollo Research, une entreprise qui évalue la sécurité des modèles d'IA, a déclaré que ces attaques étaient un signe avant-coureur de ce qui pourrait advenir avec le développement des capacités de l'IA.

« Je pense que la société n'est pas suffisamment préparée à une telle évolution rapide du paysage de l'IA et des cyber-capacités. Je m'attends à ce que de nombreux autres événements similaires se produisent dans les années à venir, probablement avec des conséquences plus graves. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd