Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6660

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Anthropic advierte que las barreras contra los ciberataques han caído a medida que se aceleran las capacidades de la IA.
news.bitcoin.com · 2025

Anthropic, la empresa de IA detrás de Claude, afirma que sus evaluaciones internas y su trabajo de inteligencia de amenazas muestran un cambio decisivo en el desarrollo de capacidades cibernéticas. Según una investigación publicada recientemente, las capacidades cibernéticas de los sistemas de IA se han duplicado en seis meses, respaldada por mediciones de actividad en el mundo real y pruebas basadas en modelos.

La empresa afirma que la IA está influyendo significativamente en la dinámica de la seguridad global, especialmente a medida que los ciberdelincuentes adoptan cada vez más marcos de ataque automatizados. En su último informe (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), Anthropic detalla lo que denomina el primer caso documentado de una campaña de ciberespionaje orquestada por IA. El equipo de Inteligencia de Amenazas de la empresa identificó y desarticuló una operación a gran escala a mediados de septiembre de 2025, atribuida a un grupo patrocinado por el Estado chino denominado GTG-1002.

Según se informa, el grupo utilizó instancias coordinadas de Claude Code para realizar reconocimiento, descubrimiento de vulnerabilidades, explotación, movimiento lateral, extracción de metadatos y exfiltración de datos, en gran medida sin intervención humana. La campaña tuvo como objetivo aproximadamente 30 organizaciones de diversos sectores, como tecnología, finanzas, productos químicos y múltiples agencias gubernamentales. Anthropic validó varias intrusiones exitosas antes de intervenir.

Los analistas afirman que los atacantes aprovecharon un marco autónomo capaz de desglosar ataques de varias etapas en tareas más pequeñas que parecían legítimas al aislarlas de su contexto general. Esto les permitió enviar mensajes a través de perfiles de usuario predefinidos y convencer a Claude de que las operaciones eran pruebas de seguridad defensivas y no campañas ofensivas.

Según la investigación, Claude ejecutó de forma autónoma entre el 80 % y el 90 % de las operaciones tácticas. Los operadores humanos solo proporcionaron supervisión estratégica, aprobando pasos importantes como la escalada de reconocimiento a explotación activa o la autorización de la exfiltración de datos. El informe describe un ritmo operativo imposible para equipos exclusivamente humanos, con algunos flujos de trabajo que generaban múltiples operaciones por segundo a través de miles de solicitudes.

Anthropic afirma que el ciclo de vida del ataque avanzó a través de una canalización estructurada donde la autonomía de la IA (https://news.bitcoin.com/study-generative-ai-could-add-trillions-to-global-economy/) aumentó en cada fase. Claude mapeó de forma independiente las superficies de ataque, escaneó sistemas en producción, creó cargas útiles personalizadas para vulnerabilidades validadas, recopiló credenciales y se movió a través de redes internas. También analizó datos robados, identificó información de alto valor y generó automáticamente documentación operativa detallada, lo que permitió el acceso persistente y la transferencia de información entre operadores.

Una limitación, señala el informe, fue la tendencia del modelo a la confusión bajo cargas de trabajo ofensivas: en ocasiones, sobreestimaba el acceso, fabricaba credenciales o clasificaba erróneamente información pública como confidencial. Aun así, Anthropic indica que el atacante compensó esta limitación mediante pasos de validación, lo que demuestra que las operaciones ofensivas totalmente autónomas siguen siendo viables a pesar de las imperfecciones de los modelos actuales.

Tras su descubrimiento, Anthropic bloqueó las cuentas pertinentes, notificó a las entidades afectadas, coordinó con las autoridades e implementó nuevos mecanismos de defensa, incluyendo clasificadores mejorados para detectar nuevos patrones de amenazas. La empresa está desarrollando prototipos de sistemas de alerta temprana diseñados para detectar intentos de intrusión autónomos y creando nuevas herramientas de investigación para operaciones cibernéticas distribuidas a gran escala.

La firma argumenta que, si bien estas capacidades pueden utilizarse como armas, son igualmente cruciales para reforzar la preparación defensiva. Anthropic señala que su propio equipo de Inteligencia de Amenazas dependió en gran medida de Claude para analizar los enormes conjuntos de datos generados durante la investigación. Insta a los equipos de seguridad a comenzar a adoptar la automatización basada en IA para los centros de operaciones de seguridad, la detección de amenazas, el análisis de vulnerabilidades y la respuesta a incidentes.

Sin embargo, el informe advierte que las barreras contra los ciberataques se han reducido considerablemente, ya que los sistemas de IA permiten que pequeños grupos, o incluso individuos, ejecuten operaciones que antes estaban reservadas a actores estatales con amplios recursos. Anthropic prevé una rápida proliferación de estas técnicas en el panorama general de amenazas, e insta a una mayor colaboración, mejores medidas de seguridad defensivas y una mayor participación del sector en el intercambio de información sobre amenazas para contrarrestar los nuevos modelos de ataque basados en IA.

Preguntas frecuentes ❓

  • ¿Qué descubrió Anthropic en su investigación?

Anthropic identificó y desarticuló una campaña de ciberespionaje a gran escala que utilizaba IA para automatizar la mayoría de las operaciones de ataque.

  • ¿Quién estaba detrás del ataque?

La empresa atribuyó la operación a un grupo patrocinado por el Estado chino denominado GTG-1002.

  • ¿Cómo se utilizó la IA en las intrusiones?

Los atacantes emplearon Claude Code para realizar de forma autónoma reconocimiento, explotación, movimiento lateral y extracción de datos.

¿Por qué es importante este informe para los equipos de ciberseguridad?

Anthropic afirma que el caso demuestra que los ataques autónomos con IA son ahora viables a gran escala y requieren nuevas estrategias defensivas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd