Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6659

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
El gigante tecnológico Anthropic revela que hackers estatales chinos desplegaron IA para ataques autónomos.
tag24.com · 2025

Washington D.C. - La empresa de inteligencia artificial Anthropic detectó y desarticuló la que describió como la primera campaña documentada de ciberespionaje realizada de forma mayormente autónoma mediante IA, lo que representa una escalada significativa en los ataques basados en aprendizaje automático.

La operación, atribuida a un grupo patrocinado por el Estado chino, denominado GTG-1002, manipuló el sistema de IA Claude de Anthropic para espiar y robar datos de aproximadamente 30 objetivos con mínima intervención humana, según un informe de la compañía publicado el jueves.

La campaña, detectada a mediados de septiembre, tuvo como objetivo a importantes empresas tecnológicas, instituciones financieras y agencias gubernamentales en varios países.

Anthropic afirmó que los atacantes utilizaron Claude Code, su producto de programación informática, para llevar a cabo de forma autónoma entre el 80% y el 90% de la actividad de la campaña a velocidades imposibles para los operadores humanos.

"Esto representa un cambio fundamental en la forma en que los ciberdelincuentes utilizan la IA", declaró la empresa.

"En lugar de simplemente asesorar sobre técnicas, el ciberdelincuente manipuló a Claude para que realizara operaciones reales de intrusión cibernética con una supervisión humana mínima".

Según la empresa, los atacantes eludieron los mecanismos de seguridad de Claude convenciendo a la IA de que eran profesionales legítimos de ciberseguridad que realizaban pruebas autorizadas.

Aunque el personal humano mantuvo la supervisión estratégica, la IA ejecutó de forma independiente ciberataques complejos durante varios días sin instrucciones detalladas, según el informe. La campaña sostenida acabó activando los sistemas de detección integrados de la empresa.

En una admisión importante, Anthropic reconoció que los espías de IA de Claude frecuentemente exageraban los hallazgos y, en ocasiones, fabricaban datos, alegando haber obtenido credenciales que no funcionaban o identificando información disponible públicamente como descubrimientos críticos.

Estas alucinaciones de la IA siguen siendo una preocupación constante en el sector tecnológico.

Tras la detección, Anthropic bloqueó las cuentas asociadas, notificó a las entidades y autoridades afectadas e implementó capacidades de detección mejoradas.

La empresa defendió su decisión de seguir desarrollando potentes sistemas de IA a pesar del mal uso, argumentando que esas mismas capacidades permiten defenderse de los ciberdelincuentes.

«Cuando inevitablemente se produzcan ciberataques sofisticados, nuestro objetivo es que Claude ayude a los profesionales de la ciberseguridad a detectarlos, interrumpirlos y prepararse para futuras versiones del ataque», afirmó.

«Compartimos este caso públicamente para contribuir al trabajo de la comunidad de seguridad de la IA en general», añadió la empresa.

Anthropic anunció que publicará informes periódicos sobre los ataques detectados y solicitó un mayor intercambio de datos en el sector, una mejor detección y controles de seguridad más estrictos en todas las plataformas de IA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd