Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6649

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Hackers chinos secuestran la IA Anthropic en el primer ciberataque a gran escala.
upi.com · 2025

14 de noviembre (UPI) — El gigante tecnológico Anthropic confirmó que agentes chinos lograron tomar el control de su modelo de IA, Claude, para ejecutar un ciberataque de gran envergadura con mínima intervención humana.

El jueves, representantes de Anthropic afirmaron en una publicación de blog de mediados de septiembre que detectaron "actividad sospechosa" que, tras una investigación posterior, se determinó como una "campaña de espionaje altamente sofisticada".

Añadieron que Anthropic tenía una alta probabilidad de que se tratara de un grupo cibernético respaldado por China.

El grupo patrocinado por el Estado chino, al que Anthropic denominó "GTG-1002", supuestamente secuestró su herramienta de inteligencia artificial Claude (https://www.upi.com/Top_News/US/2025/09/29/Anthropic-launches-Claude-Sonnett-45-best-coding-model-world/1111759187715/) para llevar a cabo entre el 80 % y el 90 % de un ciberataque contra aproximadamente 30 objetivos globales.

Según Anthropic, el grupo atacó numerosas agencias gubernamentales, instituciones financieras, plantas de fabricación de productos químicos y grandes empresas tecnológicas.

En un número reducido de casos, añadió la compañía, la infiltración cibernética tuvo éxito.

En los últimos años se ha observado, aunque de forma limitada, un tipo de pirateo informático relacionado con la IA. Pero Anthropic, respaldada por Amazon, afirma que cree que este reciente episodio es el primer caso documentado a gran escala ejecutado principalmente por inteligencia artificial.

Anthropic alegó que las medidas de seguridad implementadas estaban diseñadas para prevenir el abuso de su producto.

Sin embargo, indicó que los atacantes, haciéndose pasar por participantes en pruebas de defensa para una empresa legítima de ciberseguridad, lograron vulnerar la seguridad de Claude dividiendo las solicitudes en peticiones más pequeñas para evitar ser detectados.

Anthropic declaró que optó por compartir la información para ayudar a la industria de la ciberseguridad a mejorar sus mecanismos de defensa contra futuros ataques similares perpetrados por hackers que utilizan inteligencia artificial.

"La enorme cantidad de trabajo realizado por la IA habría requerido muchísimo tiempo para un equipo humano", según Anthropic, con sede en California.

La empresa tecnológica afirmó que es probable que el ataque solo requiriera interacción humana esporádica en "quizás" cuatro o seis "puntos de decisión críticos" por campaña de hackeo.

«La IA realizó miles de solicitudes por segundo, una velocidad de ataque que, para los hackers humanos, habría sido simplemente imposible de igualar», continuaba la publicación del blog.

«Los ciberataques automatizados pueden escalar mucho más rápido que las operaciones dirigidas por humanos y son capaces de superar las defensas tradicionales», declaró Jake Moore, asesor global de ciberseguridad de la empresa de seguridad informática ESET, a Business Insider.

En febrero del año pasado, Microsoft y OpenAI revelaron públicamente que sus herramientas de inteligencia artificial estaban siendo utilizadas por hackers gubernamentales extranjeros en China, Rusia, Irán y Corea del Norte para mejorar la guerra cibernética.

Moore indicó el jueves que el ataque de Anthropic no solo confirma lo que muchos temían, sino que "el impacto más amplio radica en cómo estos ataques permiten que actores con escasa capacitación realicen intrusiones complejas a un costo relativamente bajo".

"La IA se utiliza tanto en defensa como en ataque, por lo que la seguridad ahora depende por igual de la automatización y la velocidad, más que de la experiencia humana en las organizaciones", afirmó.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd