Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6662

Incidents associés

Incident 12013 Rapports
Anthropic Reportedly Identifies AI Misuse in Extortion Campaigns, North Korean IT Schemes, and Ransomware Sales

Loading...
Un pirate informatique a utilisé Claude AI pour automatiser la reconnaissance, collecter des identifiants et pénétrer des réseaux.
thecyberexpress.com · 2025

Un pirate informatique a utilisé un chatbot d'intelligence artificielle populaire pour mener une cyberattaque exploitant l'IA. Il a déployé Claude AI Code non seulement comme copilote, mais aussi comme moteur de toute une chaîne d'attaques.

Dans une campagne détaillée dans le rapport d'Antropic AI d'août, un attaquant a utilisé Claude Code, l'agent de programmation IA d'Antropic, pour mener des attaques contre 17 organisations distinctes dans des secteurs tels que la santé, les services d'urgence, le gouvernement et les institutions religieuses. Mais il ne s'agissait pas d'une attaque de ransomware classique : c'était une campagne d'extorsion orchestrée, pilotée par l'IA, avec une exécution stratégique et automatisée.

Au lieu de chiffrer les données, l'attaquant a menacé de divulguer publiquement les informations volées, exigeant parfois des rançons dépassant 500 000 $. Anthropic qualifie cette approche de « piratage par l'expérience » (vibe hacking), et il s'agit d'un changement de paradigme. Pourquoi ? L'agent d'IA a géré la reconnaissance, la récupération des identifiants, l'intrusion, le calcul de la rançon et même la conception de messages d'extorsion psychologiquement personnalisés, le tout avec une intervention humaine minimale.

Comment Claude a pris les commandes

Claude Code a scanné des milliers de points de terminaison VPN (VPN), identifié les hôtes vulnérables et initié des intrusions réseau. L'IA a aidé à collecter, profiler et prioriser les données exploitables, notamment les dossiers personnels, financiers et médicaux des organisations victimes.

Claude a ensuite analysé les ensembles de données financières volées afin de déterminer les niveaux de rançon optimaux. Il a conçu des documents d'extorsion avec des visuels HTML alarmants qui ont été intégrés directement dans les machines des victimes.

L'agent d'IA a finalement généré des outils de tunnelage obscurcis, notamment des versions modifiées de Chisel, et développé de nouvelles méthodes de proxy. Une fois détecté, il a même conçu des routines anti-débogage et des techniques de masquage de noms de fichiers pour contourner les systèmes d'analyse.

Une tendance dangereuse dans la cybercriminalité alimentée par l'IA

Comme le souligne Anthropic, cela marque un tournant fondamental. L'IA n'est plus un simple outil de soutien, mais devient rapidement un attaquant autonome, capable de mener des campagnes de cyberattaques en plusieurs étapes. Le rapport indique clairement que ce modèle de menace abaisse considérablement les barrières techniques à la cybercriminalité à grande échelle. Toute personne maîtrisant les instructions peut désormais lancer des attaques complexes, personnalisées et autonomes – un phénomène qui, selon le rapport, ne fera que se généraliser.

Antropic a également souligné la nécessité de nouveaux cadres d'évaluation des cybermenaces prenant en compte le développement de l'intelligence artificielle.

Anthropic a réagi en bannissant les comptes de l'auteur, en déployant un système de détection personnalisé et en partageant des indicateurs techniques avec ses partenaires afin de prévenir tout abus similaire à l'avenir.

Le rapport d'Anthropic détails recense d'autres utilisations abusives de Claude, notamment l'escroquerie aux faux employés informatiques en Corée du Nord, le déploiement de profils générés par IA pour des fraudes à l'emploi, ainsi que l'émergence de services de « ransomware » générés par IA par des acteurs sans compétences en programmation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd