Incidente 1201: Anthropic habría identificado el uso indebido de IA en campañas de extorsión, esquemas informáticos norcoreanos y ventas de ransomware.
Descripción: En agosto de 2025, Anthropic publicó un informe de inteligencia de amenazas que detallaba múltiples casos de uso indebido de sus modelos Claude. Los abusos documentados incluían una campaña de extorsión a gran escala con el Código Claude contra al menos 17 organizaciones, esquemas fraudulentos de teletrabajo vinculados a operativos norcoreanos y el desarrollo y la venta de ransomware generado por IA. Anthropic bloqueó las cuentas, implementó nuevas medidas de seguridad y compartió los indicadores con las autoridades.
Editor Notes: For the full Anthropic Threat Intelligence report, please refer to this URL: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf. See also Incidents 1054 and 1116.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Anthropic developed an AI system deployed by Unknown cybercriminals , Ransomware-as-a-service actors , North Korean IT operatives y Government of North Korea, which harmed Truth , Religious institutions , National security and intelligence stakeholders , Healthcare organizations , Government agencies , General public , Fortune 500 technology companies , Epistemic integrity , Emergency services y Consumers targeted by ransomware.
Sistemas de IA presuntamente implicados: LLM-enhanced ransomware toolkits , Claude Code , Claude y Agentic AI system
Estadísticas de incidentes
ID
1201
Cantidad de informes
3
Fecha del Incidente
2025-08-27
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Hemos desarrollado sofisticadas medidas de seguridad para prevenir el uso indebido de nuestros modelos de IA. Sin embargo, los ciberdelincuentes y otros actores maliciosos intentan activamente encontrar maneras de evadirlas. Hoy publicamos …
Loading...

Anthropic reveló el miércoles que desbarató una sofisticada operación que utilizó su chatbot Claude, impulsado por inteligencia artificial (IA), para llevar a cabo robos y extorsiones a gran escala de datos personales en julio de 2025.
"El …
Loading...
Un hacker utilizó un popular chatbot de inteligencia artificial para llevar a cabo una operación cibercriminal que convirtió la IA en un arma, empleando Claude AI Code no solo como copiloto, sino como el motor de toda una cadena de ataque.
…Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
