Incidente 1263: Según informes, un operador estatal chino (GTG-1002) utiliza el código Claude para el ciberespionaje autónomo.
Descripción: Según informes, Anthropic identificó una campaña de ciberespionaje en la que un supuesto grupo vinculado al Estado chino, denominado GTG-1002 por Anthropic, habría vulnerado la seguridad de Claude Code y la habría utilizado para automatizar entre el 80 % y el 90 % de las intrusiones en múltiples etapas. Al parecer, la IA realizó de forma independiente tareas de reconocimiento, descubrimiento de vulnerabilidades, explotación, obtención de credenciales y extracción de datos en aproximadamente 30 objetivos antes de que se detectara y bloqueara la actividad.
Editor Notes: Anthropic's full report can be read here: https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf. The reported Chinese state-sponsored deployer has been designated GTG-1002 by Anthropic. They reportedly detected the activity sometime in mid-September 2025. The incident ID date of 11/13/2025 corresponds to the publication of their initial findings.
Entidades
Ver todas las entidadesAlleged: Anthropic developed an AI system deployed by Unknown Chinese state-sponsored entity y GTG-1002, which harmed Entities targeted by GTG-1002 y National security stakeholders.
Sistemas de IA presuntamente implicados: Open-source penetration testing tools , Model Context Protocol (MCP) , MCP-integrated toolchain , GTG-1002's autonomous orchestration framework y Claude code
Estadísticas de incidentes
ID
1263
Cantidad de informes
2
Fecha del Incidente
2025-11-13
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Recientemente argumentamos que se había alcanzado un punto de inflexión en la ciberseguridad: un punto en el que los modelos de IA se habían vuelto realmente útiles para las operaciones de ciberseguridad, tanto para bien como para mal. Esto…
Loading...
China's state-sponsored hackers used artificial-intelligence technology from Anthropic to automate break-ins of major corporations and foreign governments during a September hacking campaign, the company said Thursday.
The effort focused on…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?