Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6676

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
La IA ya no solo ayuda en los ciberataques, sino que ahora puede llevarlos a cabo.
zdnet.com · 2025

Conclusiones clave de ZDNET

  • Anthropic documentó un ciberataque a gran escala que utilizó IA.

  • Anthropic afirma que un grupo patrocinado por el Estado chino es el responsable.

  • Este ataque podría ser el primero de su tipo.


Se ha registrado la primera campaña de ciberataques a gran escala que utiliza inteligencia artificial (IA) con un propósito que va más allá de ser una simple herramienta de apoyo digital.

Como informó inicialmente el Wall Street Journal, Anthropic, la empresa detrás de Claude, un asistente de IA, publicó un informe que documenta el abuso de sus modelos de IA, secuestrados en una campaña de ataque a gran escala dirigida simultáneamente a múltiples organizaciones.

¿Qué sucedió? --------------

A mediados de septiembre, Anthropic detectó una operación de ciberespionaje altamente sofisticada que utilizó IA durante todo el ciclo de ataque.

Claude Code, una IA con capacidad de análisis, fue utilizada indebidamente para crear un marco de ataque automatizado capaz de realizar operaciones de reconocimiento, descubrimiento y explotación de vulnerabilidades, movimiento lateral, robo de credenciales, análisis de datos y exfiltración. Además, estas etapas se llevaron a cabo de forma prácticamente autónoma, con operadores humanos que supervisaban el proceso tras asignar a Claude Code la función de orquestador y agente de pruebas de penetración; es decir, simular ser un defensor.

La IA no solo encontró vulnerabilidades en las organizaciones objetivo, sino que también permitió su explotación, el robo de datos y otras actividades maliciosas posteriores a la explotación.

Según Anthropic, esto no solo resultó en que organizaciones de alto perfil fueran el objetivo, sino que entre el 80 % y el 90 % de las operaciones tácticas fueron realizadas de forma independiente por la IA.

«Al presentar estas tareas a Claude como solicitudes técnicas rutinarias mediante instrucciones cuidadosamente elaboradas y perfiles de usuario predefinidos, el atacante logró que Claude ejecutara componentes individuales de cadenas de ataque sin acceso al contexto malicioso general», declaró Anthropic.

¿Quién fue el responsable y cómo respondió Anthropic?


Según Anthropic, un grupo patrocinado por el Estado chino estaría presuntamente detrás de la operación. Ahora identificado como GTG-1002 y con un alto nivel de recursos y respaldo estatal, el grupo utilizó a Claude en su campaña; sin embargo, se sabe poco más sobre ellos.

Una vez que Anthropic descubrió el abuso de sus tecnologías, actuó con rapidez para bloquear las cuentas asociadas con GTG-1002 y ampliar sus sistemas de detección de actividad maliciosa, con la esperanza de descubrir lo que la empresa denomina «nuevos patrones de amenazas», como el juego de roles utilizado por GTG-1002 para hacer que el sistema actuara como un auténtico probador de penetración con enfoque defensivo.

Anthropic también está desarrollando prototipos de medidas de detección temprana para detener los ciberataques autónomos, y tanto las autoridades como los actores de la industria fueron informados del incidente.

Sin embargo, la empresa también emitió una advertencia a la comunidad de ciberseguridad en general, instándola a mantenerse alerta:

"La comunidad de ciberseguridad debe asumir que se ha producido un cambio fundamental: los equipos de seguridad deben experimentar con la aplicación de la IA para la defensa en áreas como la automatización de SOC, la detección de amenazas, la evaluación de vulnerabilidades y la respuesta a incidentes, y adquirir experiencia con lo que funciona en sus entornos específicos", declaró Anthropic. "Además, necesitamos una inversión continua en medidas de seguridad en todas las plataformas de IA para prevenir el uso indebido por parte de adversarios. Las técnicas que describimos hoy proliferarán en el panorama de amenazas, lo que hace que el intercambio de información sobre amenazas en la industria, la mejora de los métodos de detección y el fortalecimiento de los controles de seguridad sean aún más cruciales".

¿Es importante este ataque?


Recientemente hemos visto los primeros indicios de que los ciberdelincuentes de todo el mundo están explorando cómo aprovechar la IA en herramientas, técnicas y ataques maliciosos. Sin embargo, hasta ahora, estas prácticas se habían limitado relativamente —al menos en el ámbito público— a una automatización y asistencia menores, phishing mejorado, cierta generación dinámica de código (https://www.zdnet.com/article/google-spots-malware-in-the-wild-that-morphs-mid-attack-thanks-to-ai/), estafas por correo electrónico y ofuscación de código.

Parece que, casi al mismo tiempo que el caso de Anthropic, OpenAI, los creadores de ChatGPT, publicaron su propio informe (https://www.zdnet.com/article/ai-is-making-cybercriminal-workflows-more-efficient-too-openai-finds/), en el que afirmaban que existía abuso, pero poca o ninguna evidencia de que los modelos de OpenAI se utilizaran indebidamente para obtener una "nueva capacidad ofensiva". GTG-1002 se dedicaba a implementar IA para atacar organizaciones de forma automática y simultánea.

(Nota: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).

Aproximadamente 30 organizaciones fueron el objetivo. Solo un pequeño número de estos ataques, apenas unos pocos, tuvieron éxito; sin embargo, debido a alucinaciones generadas por la IA y a otros problemas, como la falsificación de datos y mentiras flagrantes sobre la obtención de credenciales válidas. Por lo tanto, si bien sigue siendo un caso relevante, podría argumentarse que representa un avance en las técnicas, pero aún no constituye el apocalipsis de la IA.

O, como afirmó Anthropic, este descubrimiento «representa un cambio fundamental en la forma en que los actores de amenazas avanzadas utilizan la IA».

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd