Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6643

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Anthropic advierte que un actor vinculado a un estado abusó de su herramienta de IA en una sofisticada campaña de espionaje.
cybersecuritydive.com · 2025

Anthropic informó que un presunto hacker vinculado a un estado manipuló una de sus herramientas de codificación basadas en IA para llevar a cabo una sofisticada campaña de espionaje en septiembre contra aproximadamente 30 organizaciones importantes a nivel mundial, según una publicación en su blog del jueves (https://www.anthropic.com/news/disrupting-AI-espionage).

Los hackers utilizaron el código Claude de la compañía para atacar a diversas organizaciones, incluyendo empresas de fabricación de productos químicos, grandes empresas tecnológicas, instituciones financieras y agencias gubernamentales. El grupo atacante, al que la compañía ha designado como GTG-1002, logró vulnerar la seguridad de un pequeño número de los objetivos, según Anthropic.

La compañía afirma que este ataque podría ser uno de los primeros ciberataques a gran escala cometidos sin una participación humana significativa. Entre el 80 % y el 90 % del ataque se realizó mediante IA, según Anthropic, requiriéndose la intervención humana en entre cuatro y seis puntos de decisión clave.

Anthropic afirmó haber bloqueado varias cuentas vinculadas al ataque, notificado a las organizaciones afectadas e informado de los ataques a las autoridades.

Añadió que los operadores humanos seleccionaron los objetivos del ataque y posteriormente desarrollaron un marco para lanzar los hackeos. La herramienta Claude Code se configuró para realizar los ataques automáticamente.

Dado que la herramienta está programada para evitar su uso con fines maliciosos, los atacantes lograron vulnerar Claude Code, lo que les permitió eludir sus medidas de seguridad integradas.

Según la publicación del blog, los distintos pasos del ataque se dividieron en tareas simples, que la herramienta interpretó como pasos inocentes e incrementales sin comprender completamente el contexto de lo que se le solicitaba. Como parte del engaño, los hackers convencieron a Claude de que eran empleados de una empresa de ciberseguridad y que las acciones formaban parte de pruebas defensivas.

La herramienta se utilizó para realizar reconocimiento y encontrar bases de datos de alto valor. Claude identificó y probó vulnerabilidades de seguridad en estos sistemas objetivo y, posteriormente, escribió su propio código de explotación. Tras recopilar nombres de usuario y contraseñas, la herramienta Claude se utilizó para buscar cuentas con privilegios, crear puertas traseras maliciosas y llevar a cabo ataques a gran escala.

Esta es la primera vez que los analistas observan que un agente de IA se utiliza para automatizar un porcentaje tan elevado de un ataque multifásico por parte de un actor de amenazas real.

«Este es un momento crucial en lo que respecta a la transformación de los agentes de IA en herramientas para operaciones cibernéticas ofensivas», afirmó Allie Mellen, analista principal de seguridad y riesgo en Forrester.

La revelación de Anthropic se produce más de una semana después de que el Grupo de Inteligencia de Amenazas de Google (https://cloud.google.com/blog/topics/threat-intelligence/threat-actor-usage-of-ai-tools) publicara un informe que mostraba a hackers utilizando malware con IA en ataques activos.

Los investigadores identificaron familias de malware, como Prompflux y Promptsteal, que utilizaban modelos de lenguaje complejos.

Actores vinculados a estados de Corea del Norte, Irán y China también han utilizado Gemini, la tecnología de IA de Google, para optimizar sus operaciones.

Investigadores de Google afirmaron que estos ataques probablemente no sean incidentes aislados, sino evidencia de una tendencia creciente.

«Muchos otros harán lo mismo pronto, o ya lo han hecho», declaró John Hultquist, analista jefe de GTIG, a Cybersecurity Dive. «La verdadera pregunta es si podremos adaptarnos tan rápido como nuestro adversario».

Nota del editor: Se añade un comentario de Forrester.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd