Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6650

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Ha comenzado la era de los ciberataques dirigidos por IA.
vox.com · 2025

Planificación de menús, terapia, redacción de ensayos, ciberataques globales altamente sofisticados: la gente no deja de encontrar nuevos e innovadores usos para los chatbots de IA más recientes.

Esta semana se alcanzó un nuevo e inquietante hito cuando la empresa de inteligencia artificial Anthropic anunció que su asistente de IA estrella, Claude, fue utilizado por hackers chinos en lo que la empresa denomina la "primera campaña de ciberespionaje orquestada por IA de la que se tiene constancia".

Según un informe publicado por Anthropic a mediados de septiembre, la compañía detectó una operación de ciberespionaje a gran escala llevada a cabo por un grupo denominado GTG-1002, dirigida a importantes corporaciones tecnológicas, instituciones financieras, empresas de fabricación de productos químicos y agencias gubernamentales de varios países.

Este tipo de ataques no son inusuales. Lo que distingue a este es que entre el 80 y el 90 por ciento se realizó mediante inteligencia artificial (IA). Tras identificar las organizaciones objetivo, los operadores humanos utilizaron Claude para detectar bases de datos valiosas, comprobar si existían vulnerabilidades y desarrollar su propio código para acceder a ellas y extraer información valiosa. La intervención humana se limitó a unos pocos puntos críticos para proporcionar instrucciones a la IA y verificar su funcionamiento.

Claude, al igual que otros modelos de lenguaje complejos, incorpora medidas de seguridad para evitar su uso con este tipo de fines. Sin embargo, los atacantes lograron vulnerar el programa dividiendo su tarea en partes más pequeñas y aparentemente inocentes, haciéndole creer a Claude que eran una empresa de ciberseguridad realizando pruebas de defensa. Esto plantea interrogantes preocupantes sobre hasta qué punto se pueden sortear las medidas de seguridad de modelos como Claude y ChatGPT, especialmente ante la inquietud de cómo podrían utilizarse para desarrollar armas biológicas u otros materiales peligrosos del mundo real.

Anthropic admite que, en ocasiones durante la operación, Claude «alucinó credenciales o afirmó haber extraído información secreta que, de hecho, era de dominio público». Incluso los hackers patrocinados por estados deben estar atentos a la posibilidad de que la IA fabrique información.

El informe plantea la preocupación de que las herramientas de IA faciliten y aceleren enormemente los ciberataques, aumentando la vulnerabilidad de todo, desde sistemas de seguridad nacional sensibles hasta las cuentas bancarias de los ciudadanos.

¿Qué significa esto? --------------------

Aun así, todavía no estamos en una ciberanarquía total. El nivel de conocimiento técnico necesario para que Claude hiciera esto sigue estando fuera del alcance del troll de internet promedio. Pero los expertos llevan años advirtiendo que los modelos de IA pueden usarse para generar código malicioso para estafas o espionaje, un fenómeno conocido como "hackeo de inteligencia artificial.". En febrero, los competidores de Anthropic en OpenAI informaron haber detectado actores maliciosos de China, Irán, Corea del Norte y Rusia usando sus herramientas de IA para ayudar en operaciones cibernéticas.

En septiembre, el Centro para una Nueva Seguridad Estadounidense (CNAS) publicó un informe sobre la amenaza del hackeo impulsado por IA (https://archive.is/o/OT9ju/https://www.cnas.org/publications/reports/tipping-the-scales). En él se explicaba que las fases más costosas en tiempo y recursos de la mayoría de las operaciones cibernéticas son la planificación, el reconocimiento y el desarrollo de herramientas. (Los ataques en sí suelen ser rápidos). Al automatizar estas tareas, la IA puede suponer un cambio radical en las operaciones ofensivas, y eso parece ser precisamente lo que ocurrió en este ataque.

Caleb Withers, autor del informe del CNAS, declaró a Vox que el anuncio de Anthropic estaba en consonancia con las tendencias actuales, teniendo en cuenta los recientes avances en las capacidades de la IA, y que «el nivel de sofisticación con el que esto puede realizarse de forma prácticamente autónoma mediante IA seguirá aumentando».

La guerra cibernética encubierta de China


Anthropic afirma que los hackers dejaron suficientes pistas para determinar que eran chinos, aunque la embajada china en Estados Unidos calificó la acusación de "difamación y calumnia".

En cierto modo, esto representa un triunfo irónico para Anthropic y la industria de la IA estadounidense en general. A principios de este año, el modelo de lenguaje de gran escala chino DeepSeek causó gran revuelo en Washington y Silicon Valley, sugiriendo que, a pesar de los esfuerzos estadounidenses por limitar el acceso de China a los chips semiconductores avanzados necesarios para desarrollar modelos de lenguaje de IA, el progreso de China en IA solo estaba ligeramente por detrás del de Estados Unidos. Por lo tanto, resulta bastante significativo que incluso los hackers chinos sigan prefiriendo un chatbot fabricado en Estados Unidos para sus ciberataques.

Durante el último año, ha habido una creciente alarma sobre la magnitud y sofisticación de las ciberoperaciones chinas dirigidas a Estados Unidos. Entre estos ejemplos se incluyen Volt Typhoon (una campaña para infiltrar preventivamente ciberdelincuentes patrocinados por estados en los sistemas informáticos estadounidenses, preparándolos para lanzar ataques en caso de una crisis o conflicto importante entre Estados Unidos y China) y Salt Typhoon, una campaña de espionaje que atacó a empresas de telecomunicaciones en decenas de países y las comunicaciones de funcionarios, como el presidente Donald Trump y el vicepresidente JD Vance, durante las elecciones presidenciales del año pasado. Campaña.

Las autoridades afirman que la magnitud y la sofisticación de estos ataques superan con creces todo lo que hemos visto hasta ahora. Podría tratarse simplemente de un anticipo de lo que está por venir en la era de la IA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd