Incidentes Asociados
Operadores chinos sospechosos utilizaron la herramienta de codificación de IA de Anthropic (https://www.axios.com/2025/09/29/anthropic-claude-sonnet-coding-agent) para atacar a unas 30 organizaciones globales, con éxito en varios casos, según informó la compañía el jueves.
Importancia: Este es el primer caso documentado de un gobierno extranjero que utiliza IA (https://www.axios.com/technology/automation-and-ai) para automatizar por completo una operación cibernética, advirtió Anthropic.
Anthropic explicó que la campaña se basó en las capacidades de automatización de Claude, es decir, la capacidad del modelo para actuar de forma autónoma en múltiples etapas con mínima intervención humana.
Conclusión: Se está abriendo paso a los ciberdelincuentes estatales que utilizan IA para acelerar y escalar ataques digitales.
A principios de este mes, Google informó que hackers militares rusos utilizaron un modelo de IA para generar malware dirigido a entidades ucranianas. Sin embargo, esto requería la intervención humana para guiar el modelo paso a paso.
En este nuevo caso, Anthropic afirmó que Claude Code ejecutó entre el 80 % y el 90 % de la operación de forma autónoma.
En una publicación de blog del jueves, Anthropic informó haber detectado a presuntos hackers patrocinados por el Estado chino que habían vulnerado las seguridades de Claude Code para infiltrarse en decenas de empresas tecnológicas, instituciones financieras, fabricantes de productos químicos y agencias gubernamentales.
La empresa detectó la actividad por primera vez a mediados de septiembre e investigó durante los siguientes 10 días. - Se bloquearon las cuentas maliciosas, se alertó a las organizaciones afectadas y se compartieron los hallazgos con las autoridades durante ese período.
-
Un portavoz de la embajada china en Estados Unidos declaró que China "se opone firmemente y combate enérgicamente todas las formas de ciberataques de conformidad con la ley".
-
"Nos oponemos a los ataques y calumnias infundados contra China", añadió el portavoz. "Esperamos que las partes pertinentes adopten una actitud profesional y responsable al caracterizar los incidentes cibernéticos, basando sus conclusiones en pruebas suficientes en lugar de especulaciones y acusaciones sin fundamento".
Cómo funcionó: Los atacantes engañaron a Claude haciéndole creer que estaba realizando tareas de ciberseguridad defensiva para una empresa legítima. También dividieron las solicitudes maliciosas en tareas más pequeñas y menos sospechosas para evitar activar sus sistemas de seguridad.
Una vez vulnerados los sistemas, Claude inspeccionó los sistemas objetivo, buscó bases de datos de alto valor y escribió código de explotación personalizado.
Claude también recopiló nombres de usuario y contraseñas para acceder a datos confidenciales y, posteriormente, resumió su trabajo en informes detallados posteriores a la operación, incluyendo las credenciales utilizadas, las puertas traseras creadas y los sistemas vulnerados.
«Se identificaron las cuentas con mayores privilegios, se crearon puertas traseras y se extrajeron datos con una mínima supervisión humana», afirmó Anthropic en su blog.
Nivel de amenaza: Hasta cuatro de los presuntos ataques chinos lograron vulnerar organizaciones, según declaró Jacob Klein, jefe de inteligencia de amenazas de Anthropic, al Wall Street Journal.
«La IA realizó miles de solicitudes por segundo, una velocidad de ataque simplemente imposible de igualar para los hackers humanos», afirmó la empresa en su blog.
Sin embargo, Claude no era perfecto. Alucinó con algunas credenciales de inicio de sesión y afirmó haber robado un documento secreto que ya era público.
A tener en cuenta: Expertos en ciberseguridad han advertido que esto probablemente sea solo el principio.
Anthropic anunció que está reforzando sus herramientas de detección y advirtió que actores de amenazas menos sofisticados podrían utilizar técnicas similares en el futuro.
Para más información: Anthropic enfrenta el modelo de IA Claude contra hackers humanos.