Incidents associés

Anthropic a révélé mercredi avoir déjoué une opération sophistiquée qui avait utilisé Claude, son chatbot basé sur l'intelligence artificielle (IA), pour commettre un vol et une extorsion de données personnelles à grande échelle en juillet 2025.
« L'acteur a ciblé au moins 17 organisations distinctes, notamment dans le secteur de la santé, les services d'urgence, le gouvernement et des institutions religieuses », a déclaré l'entreprise (https://www.anthropic.com/news/detecting-countering-misuse-aug-2025). « Plutôt que de chiffrer les informations volées avec un rançongiciel traditionnel, l'acteur a menacé de les exposer publiquement afin de tenter d'extorquer des rançons pouvant parfois dépasser 500 000 dollars. »
L'attaquant a utilisé Claude Code sur Kali Linux comme plateforme d'attaque complète, intégrant des instructions opérationnelles dans un fichier CLAUDE.md fournissant un contexte persistant pour chaque interaction.
L'attaquant inconnu aurait utilisé l'IA à un degré sans précédent, utilisant Claude Code, l'outil de codage agentique d'Anthropic, pour automatiser différentes phases du cycle d'attaque, notamment la reconnaissance, la collecte d'identifiants et la pénétration du réseau.
Les efforts de reconnaissance ont consisté à analyser des milliers de points de terminaison VPN afin d'identifier les systèmes vulnérables, à les utiliser pour obtenir un accès initial, puis à effectuer des étapes d'énumération des utilisateurs et de découverte du réseau pour extraire les identifiants et configurer la persistance sur les hôtes.
De plus, l'attaquant a utilisé Claude Code pour créer des versions sur mesure de l'utilitaire de tunneling Chisel afin de contourner les efforts de détection et de déguiser des exécutables malveillants en outils Microsoft légitimes, ce qui illustre la manière dont les outils d'IA sont utilisés pour faciliter le développement de logiciels malveillants dotés de capacités de contournement des défenses.
L'activité, baptisée GTG-2002, se distingue par l'utilisation de Claude pour prendre des « décisions tactiques et stratégiques » de manière autonome, ce qui lui permet de déterminer les données à exfiltrer des réseaux des victimes et d'élaborer des demandes d'extorsion ciblées en analysant les données financières afin de déterminer un montant de rançon approprié, compris entre 75 000 et 500 000 dollars en Bitcoin.
Le code Claude, selon Anthropic, a également été utilisé pour organiser les données vol ées à des fins de monétisation, en extrayant des milliers de données individuelles, notamment des identifiants personnels, des adresses, des informations financières et des dossiers médicaux de plusieurs victimes. Par la suite, l'outil a été utilisé pour créer des demandes de rançon personnalisées et des stratégies d'extorsion à plusieurs niveaux, basées sur l'analyse des données exfiltrées.
« Les outils d'IA agentique sont désormais utilisés pour fournir des conseils techniques et un soutien opérationnel actif lors d'attaques qui auraient autrement nécessité une équipe d'opérateurs », a déclaré Anthropic. « Cela rend la défense et l'application de la loi de plus en plus difficiles, car ces outils peuvent s'adapter en temps réel à des mesures défensives, comme les systèmes de détection de logiciels malveillants. »
Pour éviter que de telles menaces de « vibe hacking » ne se reproduisent à l'avenir, l'entreprise a déclaré avoir développé un classificateur personnalisé pour détecter des comportements similaires et partagé des indicateurs techniques avec des « partenaires clés ». D'autres utilisations abusives documentées de Claude sont listées ci-dessous :
- Utilisation de Claude par des agents nord-coréens liés au système frauduleux de télétravail informatique afin de créer des personnages fictifs élaborés, dotés d'un parcours professionnel et d'un historique de projets convaincants, d'évaluations techniques et de codage lors du processus de candidature, et de les assister dans leurs tâches quotidiennes après leur embauche.
- Utilisation de Claude par un cybercriminel basé au Royaume-Uni, nom de code GTG-5004, pour développer, commercialiser et distribuer plusieurs variantes de rançongiciels dotés de capacités d'évasion avancées, de chiffrement et de mécanismes anti-récupération. Ces versions ont ensuite été vendues sur des forums du darknet tels que Dread, CryptBB et Nulled à d'autres acteurs malveillants pour un montant compris entre 400 et 1 200 dollars.
- Utilisation de Claude par un acteur malveillant chinois pour améliorer ses cyberopérations ciblant les infrastructures critiques vietnamiennes, notamment les télécommunications. Fournisseurs, bases de données gouvernementales et systèmes de gestion agricole, au cours d'une campagne de 9 mois
- Utilisation de Claude par un développeur russophone pour créer un logiciel malveillant doté de capacités d'évasion avancées
- Utilisation du protocole MCP (Model Context Protocol) et de Claude par un acteur malveillant opérant sur le forum de cybercriminalité xss[.]is afin d'analyser les journaux des voleurs et de créer des profils détaillés de victimes
- Utilisation de Claude Code par un acteur hispanophone pour maintenir et améliorer un service web sur invitation uniquement, destiné à la validation et à la revente à grande échelle de cartes de crédit volées
- Utilisation de Claude dans le cadre d'un bot Telegram qui propose des outils d'IA multimodaux pour soutenir les opérations d'escroquerie amoureuse, présentant le chatbot comme un « modèle à QE élevé »
- Utilisation de Claude par un acteur inconnu pour lancer Un service d'identité synthétique opérationnel alternant entre trois services de validation de cartes, également appelés « vérificateurs de cartes ».
L'entreprise a également déclaré avoir déjoué les tentatives des acteurs malveillants nord-coréens liés à la campagne « Contagious Interview » (https://thehackernews.com/2025/04/north-korean-hackers-spread-malware-via.html) de créer des comptes sur la plateforme afin d'améliorer leur arsenal de logiciels malveillants, de créer des leurres de phishing et de générer des packages npm, les empêchant ainsi d'envoyer des messages.
Ces études de cas s'ajoutent aux preuves de plus en plus nombreuses que les systèmes d'IA, malgré les divers garde-fous qui leur sont intégrés, sont utilisés abusivement pour faciliter des stratagèmes sophistiqués, rapides et à grande échelle.
[
](ht (tps://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhK7ahje5t7VQKL300SsYMjnpt4MEweQ-rJRjAXxDtgjPF9skYOLIm5jNgP-7nAnNQBnowW6Cs3TbkNAWH50Tt01gHTqGcA4hZEAsobnVLJdl9oquQpaZ48a93H7FTC532kpTyz8lkyy-mRrZLPTPn7Fs2tEz7Y9QgJmfUNOI4sy6BEBXZmSrS0CJv7CbI-/s728-rw-e365/ransomware.jpg)
« Criminels » « Des entreprises peu compétentes utilisent l'IA pour mener des opérations complexes, comme le développement de rançongiciels, qui auraient auparavant nécessité des années de formation », ont déclaré Alex Moix, Ken Lebedev et Jacob Klein d'Anthropic, soulignant la capacité de l'IA à réduire les obstacles à la cybercriminalité.
« Les cybercriminels et les fraudeurs ont intégré l'IA à toutes les étapes de leurs opérations. Cela inclut le profilage des victimes, l'analyse des données volées, le vol d'informations de cartes de crédit et la création de fausses identités, permettant aux opérations frauduleuses d'étendre leur portée à davantage de cibles potentielles. »