Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6365

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Hackers chinos utilizaron la IA de Anthropic para automatizar ciberataques.
wsj.com · 2025

Hackers patrocinados por el Estado chino utilizaron tecnología de inteligencia artificial de Anthropic para automatizar intrusiones en importantes corporaciones y gobiernos extranjeros durante una campaña de ciberataques en septiembre, según informó la compañía el jueves.

El ataque se centró en decenas de objetivos e implicó un nivel de automatización sin precedentes para los investigadores de ciberseguridad de Anthropic, según Jacob Klein, jefe de inteligencia de amenazas de la compañía.

Los hackers llevan años utilizando la IA para realizar tareas individuales, como crear correos electrónicos de phishing o escanear internet en busca de sistemas vulnerables, pero en este caso, entre el 80 % y el 90 % del ataque fue automático, con intervención humana únicamente en contadas ocasiones, explicó Klein.

Los hackers llevaron a cabo sus ataques «literalmente con un clic y con una mínima interacción humana», afirmó Klein. Anthropic logró interrumpir las campañas y bloquear las cuentas de los hackers, pero no sin antes haber conseguido hasta cuatro intrusiones. En un caso, los hackers dirigieron las herramientas de IA Claude de Anthropic para consultar bases de datos internas y extraer datos de forma autónoma.

"El humano solo intervino en algunos puntos críticos, diciendo: 'Sí, continúa', 'No continúes', 'Gracias por esta información', 'Oh, esto no parece correcto, Claude, ¿estás seguro?'"

La integración de tareas de hackeo en ataques casi autónomos es un nuevo paso en una creciente tendencia de automatización que proporciona a los hackers mayor escala y velocidad.

Este verano, la empresa de ciberseguridad Volexity detectó a hackers respaldados por China que utilizaban herramientas de IA para automatizar partes de una campaña de hackeo contra corporaciones, instituciones de investigación y organizaciones no gubernamentales. Los hackers utilizaban grandes modelos de lenguaje para determinar a quién debían atacar, cómo elaborar sus correos electrónicos de phishing y cómo escribir el software malicioso que utilizaban para infectar a sus víctimas, afirmó Steven Adair, presidente de Volexity. "La IA está permitiendo a los ciberdelincuentes hacer más, más rápido", concluyó.

La semana pasada, Google informó que hackers vinculados al gobierno ruso atacaron Ucrania utilizando un modelo de IA para generar instrucciones de malware personalizadas en tiempo real.

Funcionarios del gobierno estadounidense llevan años advirtiendo que China está utilizando tecnología de IA estadounidense para infiltrarse en empresas y agencias gubernamentales de EE. UU. y robar datos.

Un portavoz de la Embajada de China en Washington declaró que rastrear los ciberataques es complejo y acusó a EE. UU. de utilizar la ciberseguridad para difamar a China. "China se opone firmemente a todo tipo de ciberataques y los combate con dureza", afirmó.

Anthropic no reveló qué corporaciones y gobiernos intentaron vulnerar los hackers, pero indicó que había detectado aproximadamente 30 objetivos. Los pocos ataques exitosos lograron, en algunos casos, robar información confidencial. La empresa afirmó que el gobierno estadounidense no figuraba entre las víctimas de una intrusión exitosa, pero no quiso comentar si alguna parte del gobierno de EE. UU. era uno de los objetivos.

Anthropic declaró estar convencida, basándose en la infraestructura digital utilizada por los hackers y otras pistas, de que los ataques fueron perpetrados por hackers respaldados por el Estado chino.

Los hackers suelen utilizar herramientas de IA de código abierto para llevar a cabo sus ataques, ya que el código abierto está disponible gratuitamente y puede modificarse para eliminar las restricciones contra actividades maliciosas. Sin embargo, para utilizar Claude en los ataques, los hackers vinculados a China tuvieron que sortear las medidas de seguridad de Anthropic mediante una técnica conocida como jailbreaking; en este caso, le indicaron a Claude que estaban realizando auditorías de seguridad en nombre de los objetivos.

"En este caso, lo que hicieron fue simular trabajar para organizaciones legítimas de pruebas de seguridad", declaró Klein.

Los hackers también crearon un sistema para dividir cada parte de las campañas, desde el escaneo de vulnerabilidades hasta la exfiltración de datos, en tareas discretas que no levantaron sospechas, según la empresa.

Anthropic afirma que, tras los ataques, actualizó sus métodos para detectar el uso indebido, lo que dificulta que los atacantes utilicen a Claude para realizar acciones similares en el futuro.

Los ataques automatizados no eran completamente autónomos, y las llamadas alucinaciones de la IA provocaban errores. "Podía decir: 'He conseguido acceder a este sistema interno'", cuando no era cierto, explicó Klein sobre algunos de los intentos de hackeo. "Exageraba su acceso y capacidades, y eso era lo que requería la revisión humana".

El uso de agentes de IA para realizar ataques pone de relieve los peligros del doble uso de las herramientas de IA. Anthropic ha declarado que espera utilizar la IA para potenciar las defensas de ciberseguridad. Pero los sistemas de IA más potentes también dan lugar a atacantes más poderosos.

Anthropic afirma que su estrategia se centra en desarrollar habilidades para su IA que beneficien más a los defensores que a los atacantes, como la detección de vulnerabilidades conocidas.

"Este tipo de herramientas simplemente acelerarán las cosas", declaró Logan Graham, quien dirige el equipo de Anthropic que realiza pruebas de riesgos catastróficos. "Si no logramos que los defensores tengan una ventaja permanente y sustancial, me preocupa que podamos perder esta carrera".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd