Incidents associés

Une entreprise leader en intelligence artificielle affirme avoir déjoué une campagne de « cyberespionnage » orchestrée par la Chine, capable d'infiltrer des institutions financières et des agences gouvernementales quasiment sans intervention humaine.
Anthropic, société américaine, a déclaré que son outil de programmation, Claude Code, avait été manipulé par un groupe parrainé par l'État chinois pour attaquer 30 entités à travers le monde en septembre, réussissant ainsi plusieurs intrusions.
Dans un article de blog publié jeudi (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), l'entreprise a souligné qu'il s'agissait d'une « escalade significative » par rapport aux précédentes attaques utilisant l'IA qu'elle avait surveillées, car Claude a agi de manière largement autonome : 80 à 90 % des opérations liées à l'attaque ont été réalisées sans intervention humaine.
« L’acteur a réalisé ce que nous pensons être le premier cas documenté de cyberattaque à grande échelle exécutée en grande partie sans intervention humaine », a-t-on écrit.
Anthropic n’a pas précisé quelles institutions financières et agences gouvernementales avaient été ciblées, ni ce que les pirates avaient exactement accompli – se contentant d’indiquer qu’ils avaient pu accéder aux données internes de leurs cibles.
L’organisation a déclaré que Claude avait commis de nombreuses erreurs lors de l’exécution des attaques, allant jusqu’à inventer des faits concernant ses cibles ou à prétendre avoir « découvert » des informations librement accessibles.
Des responsables politiques et certains experts ont déclaré que ces conclusions étaient un signe inquiétant de la capacité accrue de certains systèmes d’IA : des outils comme Claude sont désormais capables de fonctionner de manière autonome pendant de longues périodes.
« Réveillez-vous ! Cela va nous détruire – plus vite qu'on ne le pense – si nous ne faisons pas de la réglementation de l'IA une priorité nationale dès demain », a tweeté le sénateur américain Chris Murphy [https://twitter.com/ChrisMurphyCT/status/1989120215171625149] sur X en réaction à ces conclusions.
« Les systèmes d'IA peuvent désormais effectuer des tâches qui exigeaient auparavant des opérateurs humains qualifiés », a déclaré Fred Heiding, chercheur en sécurité informatique à l'université Harvard. « Il devient tellement facile pour les attaquants de causer de réels dégâts. Les entreprises spécialisées dans l'IA ne prennent pas leurs responsabilités. »
D'autres experts en cybersécurité se sont montrés plus sceptiques, pointant du doigt les affirmations exagérées concernant les cyberattaques alimentées par l'IA ces dernières années – comme par exemple un « craqueur de mots de passe » basé sur l'IA de 2023 qui n'était pas plus performant que les méthodes conventionnelles – et ont suggéré qu'Anthropic cherchait à créer un engouement autour de l'IA.
« Pour moi, Anthropic décrit une automatisation sophistiquée, rien de plus », a déclaré Michał Woźniak, expert indépendant en cybersécurité. « La génération de code est impliquée, mais ce n'est pas de l'« intelligence », c'est juste du copier-coller sophistiqué. »
Woźniak a déclaré que la publication d'une faille de sécurité par Anthropic détournait l'attention d'un problème de cybersécurité plus important : l'intégration par les entreprises et les gouvernements d'outils d'IA « complexes et mal compris » dans leurs opérations, sans les maîtriser, ce qui les expose à des vulnérabilités. La véritable menace, selon lui, résidait dans les cybercriminels eux-mêmes et dans les pratiques de cybersécurité laxistes.
Anthropic, comme toutes les entreprises leaders en IA, dispose de garde-fous censés empêcher ses modèles de contribuer aux cyberattaques ou de promouvoir des actes malveillants. Cependant, l'entreprise a indiqué que les pirates informatiques étaient parvenus à contourner ces garde-fous en demandant à Claude de se faire passer pour un « employé d'une entreprise de cybersécurité légitime » effectuant des tests.
Woźniak a ajouté : « La valorisation d'Anthropic avoisine les 180 milliards de dollars, et l'entreprise est toujours incapable de se prémunir contre le piratage de ses outils par une tactique digne d'un adolescent de 13 ans voulant faire une blague téléphonique. »
Marius Hobbhahn, fondateur d'Apollo Research, une entreprise qui évalue la sécurité des modèles d'IA, a déclaré que ces attaques étaient un signe avant-coureur de ce qui pourrait advenir avec le développement des capacités de l'IA.
« Je pense que la société n'est pas suffisamment préparée à une telle évolution rapide du paysage de l'IA et des cyber-capacités. Je m'attends à ce que de nombreux autres événements similaires se produisent dans les années à venir, probablement avec des conséquences plus graves. »