Incidentes Asociados
Un grupo respaldado por el Estado chino se apoyó en inteligencia artificial estadounidense para llevar a cabo uno de los ataques de espionaje más avanzados de la historia, utilizando el código Claude de Anthropic para automatizar hasta el 90 % del trabajo pesado, según un informe de noviembre del equipo de inteligencia de amenazas de la compañía.
La operación, detectada a mediados de septiembre y registrada como GTG-1002, tuvo como objetivo a unas 30 organizaciones y logró varias brechas de seguridad confirmadas. Anthropic afirma que el grupo manipuló su modelo para que actuara como un enjambre de pentesters autónomos: escaneaban redes, creaban exploits, se movían lateralmente y extraían datos a velocidades de solicitud "físicamente imposibles", con intervención humana principalmente para aprobar pasos clave.
Los investigadores bloquearon cuentas, notificaron a las entidades afectadas y colaboraron con las autoridades una vez que mapearon la campaña.
Desarticulamos una campaña de espionaje altamente sofisticada basada en IA.
El ataque se dirigió a grandes empresas tecnológicas, instituciones financieras, empresas de fabricación de productos químicos y agencias gubernamentales. Evaluamos con alta certeza que el actor de la amenaza fue un grupo patrocinado por el Estado chino.
--- Anthropic (@AnthropicAI) 13 de noviembre de 2025
"Este es el primer caso documentado de IA con capacidad de control que logra acceder a objetivos de alto valor confirmados para la recopilación de inteligencia", indica el informe, que menciona a importantes empresas tecnológicas y agencias gubernamentales entre las víctimas.
La cadena de herramientas no era de desarrollo propio. El marco de trabajo "se basaba principalmente en herramientas de seguridad de código abierto" y en el modelo desarrollado en EE. UU. por Anthropic para integrarlas.
La estrategia de GTG-1002 se basaba en la ingeniería social de la IA, que se hacía pasar por defensores legítimos para inducir a Claude Code a realizar tareas ofensivas. Una vez preparada, el modelo gestionaba el reconocimiento, la detección de vulnerabilidades, la verificación de credenciales, el movimiento lateral y la priorización de datos a gran escala. Anthropic estima que la IA ejecutó entre el 80% y el 90% de las operaciones tácticas con una supervisión humana mínima.
Sin embargo, existían limitaciones: Claude a veces sufría alucinaciones, reclamando credenciales falsas o exagerando supuestos "descubrimientos" públicos, lo que obligaba a los operadores a validar sus resultados. Esta fricción ralentizó, pero no detuvo, la campaña, que Anthropic califica como una "escalada significativa" respecto a los planes asistidos por IA que detalló este verano.
Por su parte, Anthropic argumenta que las mismas capacidades que permiten este abuso son ahora esenciales para la defensa y afirma que está ampliando sus sistemas de alerta temprana para ataques autónomos.
La empresa no reveló la identidad de las víctimas.