Incident 1201: Anthropic aurait identifié des abus d'IA dans des campagnes d'extorsion, des stratagèmes informatiques nord-coréens et des ventes de rançongiciels.
Description: En août 2025, Anthropic a publié un rapport de renseignement sur les menaces détaillant plusieurs cas d'utilisation abusive de ses modèles Claude. Parmi les abus documentés figuraient une campagne d'extorsion à grande échelle utilisant le code Claude contre au moins 17 organisations, des systèmes frauduleux de télétravail liés à des agents nord-coréens, ainsi que le développement et la vente de rançongiciels générés par l'IA. Anthropic a banni les comptes, mis en place de nouvelles mesures de protection et partagé des indicateurs avec les autorités.
Editor Notes: For the full Anthropic Threat Intelligence report, please refer to this URL: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf. See also Incidents 1054 and 1116.
Entités
Voir toutes les entitésAlleged: Anthropic developed an AI system deployed by Unknown cybercriminals , Ransomware-as-a-service actors et North Korean IT operatives, which harmed Religious institutions , Healthcare organizations , Government agencies , Fortune 500 technology companies , Emergency services et Consumers targeted by ransomware.
Systèmes d'IA présumés impliqués: LLM-enhanced ransomware toolkits et Claude
Statistiques d'incidents
ID
1201
Nombre de rapports
2
Date de l'incident
2025-08-27
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Nous avons développé des mesures de sécurité sophistiquées pour prévenir toute utilisation abusive de nos modèles d'IA. Cependant, les cybercriminels et autres acteurs malveillants cherchent activement des moyens de les contourner. Nous pub…
Loading...

Anthropic a révélé mercredi avoir déjoué une opération sophistiquée qui avait utilisé Claude, son chatbot basé sur l'intelligence artificielle (IA), pour commettre un vol et une extorsion de données personnelles à grande échelle en juillet …
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?