Incidents associés
Un pirate informatique a utilisé un chatbot d'intelligence artificielle populaire pour mener une cyberattaque exploitant l'IA. Il a déployé Claude AI Code non seulement comme copilote, mais aussi comme moteur de toute une chaîne d'attaques.
Dans une campagne détaillée dans le rapport d'Antropic AI d'août, un attaquant a utilisé Claude Code, l'agent de programmation IA d'Antropic, pour mener des attaques contre 17 organisations distinctes dans des secteurs tels que la santé, les services d'urgence, le gouvernement et les institutions religieuses. Mais il ne s'agissait pas d'une attaque de ransomware classique : c'était une campagne d'extorsion orchestrée, pilotée par l'IA, avec une exécution stratégique et automatisée.
Au lieu de chiffrer les données, l'attaquant a menacé de divulguer publiquement les informations volées, exigeant parfois des rançons dépassant 500 000 $. Anthropic qualifie cette approche de « piratage par l'expérience » (vibe hacking), et il s'agit d'un changement de paradigme. Pourquoi ? L'agent d'IA a géré la reconnaissance, la récupération des identifiants, l'intrusion, le calcul de la rançon et même la conception de messages d'extorsion psychologiquement personnalisés, le tout avec une intervention humaine minimale.
Comment Claude a pris les commandes
Claude Code a scanné des milliers de points de terminaison VPN (VPN), identifié les hôtes vulnérables et initié des intrusions réseau. L'IA a aidé à collecter, profiler et prioriser les données exploitables, notamment les dossiers personnels, financiers et médicaux des organisations victimes.
Claude a ensuite analysé les ensembles de données financières volées afin de déterminer les niveaux de rançon optimaux. Il a conçu des documents d'extorsion avec des visuels HTML alarmants qui ont été intégrés directement dans les machines des victimes.
L'agent d'IA a finalement généré des outils de tunnelage obscurcis, notamment des versions modifiées de Chisel, et développé de nouvelles méthodes de proxy. Une fois détecté, il a même conçu des routines anti-débogage et des techniques de masquage de noms de fichiers pour contourner les systèmes d'analyse.
Une tendance dangereuse dans la cybercriminalité alimentée par l'IA
Comme le souligne Anthropic, cela marque un tournant fondamental. L'IA n'est plus un simple outil de soutien, mais devient rapidement un attaquant autonome, capable de mener des campagnes de cyberattaques en plusieurs étapes. Le rapport indique clairement que ce modèle de menace abaisse considérablement les barrières techniques à la cybercriminalité à grande échelle. Toute personne maîtrisant les instructions peut désormais lancer des attaques complexes, personnalisées et autonomes – un phénomène qui, selon le rapport, ne fera que se généraliser.
Antropic a également souligné la nécessité de nouveaux cadres d'évaluation des cybermenaces prenant en compte le développement de l'intelligence artificielle.
Anthropic a réagi en bannissant les comptes de l'auteur, en déployant un système de détection personnalisé et en partageant des indicateurs techniques avec ses partenaires afin de prévenir tout abus similaire à l'avenir.
Le rapport d'Anthropic détails recense d'autres utilisations abusives de Claude, notamment l'escroquerie aux faux employés informatiques en Corée du Nord, le déploiement de profils générés par IA pour des fraudes à l'emploi, ainsi que l'émergence de services de « ransomware » générés par IA par des acteurs sans compétences en programmation.