Incident 1201: Anthropic aurait identifié des abus d'IA dans des campagnes d'extorsion, des stratagèmes informatiques nord-coréens et des ventes de rançongiciels.
Description: En août 2025, Anthropic a publié un rapport de renseignement sur les menaces détaillant plusieurs cas d'utilisation abusive de ses modèles Claude. Parmi les abus documentés figuraient une campagne d'extorsion à grande échelle utilisant le code Claude contre au moins 17 organisations, des systèmes frauduleux de télétravail liés à des agents nord-coréens, ainsi que le développement et la vente de rançongiciels générés par l'IA. Anthropic a banni les comptes, mis en place de nouvelles mesures de protection et partagé des indicateurs avec les autorités.
Editor Notes: For the full Anthropic Threat Intelligence report, please refer to this URL: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf. See also Incidents 1054 and 1116.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: Anthropic developed an AI system deployed by Unknown cybercriminals , Ransomware-as-a-service actors , North Korean IT operatives et Government of North Korea, which harmed Truth , Religious institutions , National security and intelligence stakeholders , Healthcare organizations , Government agencies , General public , Fortune 500 technology companies , Epistemic integrity , Emergency services et Consumers targeted by ransomware.
Systèmes d'IA présumés impliqués: LLM-enhanced ransomware toolkits , Claude Code , Claude et Agentic AI system
Statistiques d'incidents
ID
1201
Nombre de rapports
3
Date de l'incident
2025-08-27
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Nous avons développé des mesures de sécurité sophistiquées pour prévenir toute utilisation abusive de nos modèles d'IA. Cependant, les cybercriminels et autres acteurs malveillants cherchent activement des moyens de les contourner. Nous pub…
Loading...

Anthropic a révélé mercredi avoir déjoué une opération sophistiquée qui avait utilisé Claude, son chatbot basé sur l'intelligence artificielle (IA), pour commettre un vol et une extorsion de données personnelles à grande échelle en juillet …
Loading...
Un pirate informatique a utilisé un chatbot d'intelligence artificielle populaire pour mener une cyberattaque exploitant l'IA. Il a déployé Claude AI Code non seulement comme copilote, mais aussi comme moteur de toute une chaîne d'attaques.…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
