Incidentes Asociados
Anthropic, la empresa de IA detrás de Claude, afirma que sus evaluaciones internas y su trabajo de inteligencia de amenazas muestran un cambio decisivo en el desarrollo de capacidades cibernéticas. Según una investigación publicada recientemente, las capacidades cibernéticas de los sistemas de IA se han duplicado en seis meses, respaldada por mediciones de actividad en el mundo real y pruebas basadas en modelos.
La empresa afirma que la IA está influyendo significativamente en la dinámica de la seguridad global, especialmente a medida que los ciberdelincuentes adoptan cada vez más marcos de ataque automatizados. En su último informe (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), Anthropic detalla lo que denomina el primer caso documentado de una campaña de ciberespionaje orquestada por IA. El equipo de Inteligencia de Amenazas de la empresa identificó y desarticuló una operación a gran escala a mediados de septiembre de 2025, atribuida a un grupo patrocinado por el Estado chino denominado GTG-1002.
Según se informa, el grupo utilizó instancias coordinadas de Claude Code para realizar reconocimiento, descubrimiento de vulnerabilidades, explotación, movimiento lateral, extracción de metadatos y exfiltración de datos, en gran medida sin intervención humana. La campaña tuvo como objetivo aproximadamente 30 organizaciones de diversos sectores, como tecnología, finanzas, productos químicos y múltiples agencias gubernamentales. Anthropic validó varias intrusiones exitosas antes de intervenir.
Los analistas afirman que los atacantes aprovecharon un marco autónomo capaz de desglosar ataques de varias etapas en tareas más pequeñas que parecían legítimas al aislarlas de su contexto general. Esto les permitió enviar mensajes a través de perfiles de usuario predefinidos y convencer a Claude de que las operaciones eran pruebas de seguridad defensivas y no campañas ofensivas.
Según la investigación, Claude ejecutó de forma autónoma entre el 80 % y el 90 % de las operaciones tácticas. Los operadores humanos solo proporcionaron supervisión estratégica, aprobando pasos importantes como la escalada de reconocimiento a explotación activa o la autorización de la exfiltración de datos. El informe describe un ritmo operativo imposible para equipos exclusivamente humanos, con algunos flujos de trabajo que generaban múltiples operaciones por segundo a través de miles de solicitudes.
Anthropic afirma que el ciclo de vida del ataque avanzó a través de una canalización estructurada donde la autonomía de la IA (https://news.bitcoin.com/study-generative-ai-could-add-trillions-to-global-economy/) aumentó en cada fase. Claude mapeó de forma independiente las superficies de ataque, escaneó sistemas en producción, creó cargas útiles personalizadas para vulnerabilidades validadas, recopiló credenciales y se movió a través de redes internas. También analizó datos robados, identificó información de alto valor y generó automáticamente documentación operativa detallada, lo que permitió el acceso persistente y la transferencia de información entre operadores.
Una limitación, señala el informe, fue la tendencia del modelo a la confusión bajo cargas de trabajo ofensivas: en ocasiones, sobreestimaba el acceso, fabricaba credenciales o clasificaba erróneamente información pública como confidencial. Aun así, Anthropic indica que el atacante compensó esta limitación mediante pasos de validación, lo que demuestra que las operaciones ofensivas totalmente autónomas siguen siendo viables a pesar de las imperfecciones de los modelos actuales.
Tras su descubrimiento, Anthropic bloqueó las cuentas pertinentes, notificó a las entidades afectadas, coordinó con las autoridades e implementó nuevos mecanismos de defensa, incluyendo clasificadores mejorados para detectar nuevos patrones de amenazas. La empresa está desarrollando prototipos de sistemas de alerta temprana diseñados para detectar intentos de intrusión autónomos y creando nuevas herramientas de investigación para operaciones cibernéticas distribuidas a gran escala.
La firma argumenta que, si bien estas capacidades pueden utilizarse como armas, son igualmente cruciales para reforzar la preparación defensiva. Anthropic señala que su propio equipo de Inteligencia de Amenazas dependió en gran medida de Claude para analizar los enormes conjuntos de datos generados durante la investigación. Insta a los equipos de seguridad a comenzar a adoptar la automatización basada en IA para los centros de operaciones de seguridad, la detección de amenazas, el análisis de vulnerabilidades y la respuesta a incidentes.
Sin embargo, el informe advierte que las barreras contra los ciberataques se han reducido considerablemente, ya que los sistemas de IA permiten que pequeños grupos, o incluso individuos, ejecuten operaciones que antes estaban reservadas a actores estatales con amplios recursos. Anthropic prevé una rápida proliferación de estas técnicas en el panorama general de amenazas, e insta a una mayor colaboración, mejores medidas de seguridad defensivas y una mayor participación del sector en el intercambio de información sobre amenazas para contrarrestar los nuevos modelos de ataque basados en IA.
Preguntas frecuentes ❓
- ¿Qué descubrió Anthropic en su investigación?
Anthropic identificó y desarticuló una campaña de ciberespionaje a gran escala que utilizaba IA para automatizar la mayoría de las operaciones de ataque.
- ¿Quién estaba detrás del ataque?
La empresa atribuyó la operación a un grupo patrocinado por el Estado chino denominado GTG-1002.
- ¿Cómo se utilizó la IA en las intrusiones?
Los atacantes emplearon Claude Code para realizar de forma autónoma reconocimiento, explotación, movimiento lateral y extracción de datos.
¿Por qué es importante este informe para los equipos de ciberseguridad?
Anthropic afirma que el caso demuestra que los ataques autónomos con IA son ahora viables a gran escala y requieren nuevas estrategias defensivas.