Incidents associés
Anthropic a déclaré qu'un pirate informatique soupçonné d'être lié à un État a manipulé l'un de ses outils de programmation basés sur l'IA pour mener une campagne d'espionnage sophistiquée en septembre contre une trentaine d'organisations majeures à travers le monde, selon un article de blog publié jeudi.
Les pirates ont utilisé Claude Code, l'outil de programmation de l'entreprise, pour cibler diverses organisations, notamment des entreprises chimiques, de grandes entreprises technologiques, des institutions financières et des agences gouvernementales. L'auteur de la menace, désigné GTG-1002 par Anthropic, a réussi à pénétrer les systèmes d'un petit nombre de cibles, selon l'entreprise.
Anthropic affirme que cette attaque pourrait être l'une des premières cyberattaques de grande envergure menées sans intervention humaine significative. Entre 80 % et 90 % de l'attaque a été réalisée par l'IA, selon Anthropic, l'intervention humaine n'ayant été nécessaire qu'à quatre à six moments clés.
Anthropic a indiqué avoir banni plusieurs comptes liés à l'attaque, notifié les organisations concernées et signalé les attaques aux autorités compétentes.
L'article précise que les opérateurs humains ont choisi les cibles de l'attaque, puis développé un système pour lancer les piratages. L'outil Claude Code a été configuré pour exécuter automatiquement les attaques.
Comme cet outil est conçu pour éviter d'être utilisé à des fins malveillantes, les attaquants ont réussi à le pirater, ce qui leur a permis de contourner ses protections intégrées.
Selon l'article, les différentes étapes de l'attaque ont été décomposées en tâches simples, que l'outil a interprétées comme des actions anodines et progressives, sans bien comprendre le contexte de ce qui lui était demandé. Pour tromper l'utilisateur, les pirates ont convaincu Claude qu'ils travaillaient pour une entreprise de cybersécurité et que leurs actions faisaient partie de tests de sécurité.
L'outil a servi à effectuer des reconnaissances et à localiser des bases de données sensibles. Claude a identifié et testé les failles de sécurité de ces systèmes ciblés, puis a développé son propre code d'exploitation. Après avoir collecté les identifiants et mots de passe, Claude a été utilisé pour rechercher des comptes privilégiés, créer des portes dérobées malveillantes et mener des attaques de grande envergure.
C'est la première fois que des analystes observent un agent d'IA utilisé pour automatiser une part aussi importante d'une attaque en plusieurs étapes menée par un véritable acteur malveillant en conditions réelles.
« Il s'agit d'un moment crucial pour la transformation des agents d'IA en outils destinés aux cyberopérations offensives », déclare Allie Mellen, analyste principale en sécurité et risques chez Forrester.
Cette révélation d'Anthropic intervient plus d'une semaine après la publication d'un rapport du Google Threat Intelligence Group montrant que des pirates informatiques utilisent des logiciels malveillants dotés d'IA dans des attaques actives.
Les chercheurs ont identifié des familles de logiciels malveillants, notamment Prompflux et Promptsteal, qui exploitent des modèles de langage complexes.
Des acteurs étatiques de Corée du Nord, d'Iran et de Chine ont également utilisé Gemini, la technologie d'IA de Google, pour optimiser leurs opérations.
Les chercheurs de Google estiment que ces attaques ne sont probablement pas des incidents isolés, mais plutôt le signe d'une tendance croissante.
« Nombreux sont ceux qui feront bientôt de même, ou qui l'ont déjà fait », a déclaré John Hultquist, analyste principal chez GTIG, à Cybersecurity Dive. « La véritable question est de savoir si nous pouvons nous adapter aussi rapidement que notre adversaire. »
Note de la rédaction : Ajout d'un commentaire de Forrester.