Incidentes Asociados

Una importante empresa de inteligencia artificial afirma haber detenido una campaña de ciberespionaje respaldada por China que logró infiltrarse en empresas financieras y agencias gubernamentales prácticamente sin supervisión humana.
Anthropic, con sede en Estados Unidos, declaró que su herramienta de programación, Claude Code, fue manipulada por un grupo patrocinado por el Estado chino para atacar a 30 entidades en todo el mundo en septiembre, logrando varias intrusiones exitosas.
Esto representó una escalada significativa con respecto a ataques previos con IA que la empresa había monitoreado, según publicó en su blog el jueves (https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf), debido a que Claude actuó de forma prácticamente autónoma: entre el 80% y el 90% de las operaciones del ataque se realizaron sin intervención humana.
“El actor logró lo que creemos que es el primer caso documentado de un ciberataque ejecutado en gran medida sin intervención humana a gran escala”, escribió.
Anthropic no especificó qué instituciones financieras y agencias gubernamentales fueron atacadas, ni qué lograron exactamente los hackers, aunque sí afirmó que pudieron acceder a los datos internos de sus objetivos.
Añadió que Claude cometió numerosos errores al ejecutar los ataques, inventando en ocasiones datos sobre sus objetivos o afirmando haber “descubierto” información de libre acceso.
Los responsables políticos y algunos expertos señalaron que estos hallazgos son una señal preocupante del creciente desarrollo de ciertos sistemas de IA: herramientas como Claude ahora pueden operar de forma autónoma durante períodos de tiempo más prolongados.
“¡Despierten de una vez! Esto nos va a destruir —antes de lo que pensamos— si no convertimos la regulación de la IA en una prioridad nacional mañana mismo”, escribió el senador estadounidense Chris Murphy en Twitter en respuesta a los hallazgos.
“Los sistemas de IA ahora pueden realizar tareas que antes requerían operadores humanos capacitados”, afirmó Fred Heiding, investigador de seguridad informática en la Universidad de Harvard. “Cada vez es más fácil para los atacantes causar daños reales. Las empresas de IA no asumen la responsabilidad que les corresponde”.
Otros expertos en ciberseguridad se mostraron más escépticos, señalando las exageradas afirmaciones sobre ciberataques impulsados por IA en los últimos años, como un programa para descifrar contraseñas con IA de 2023 que no funcionó mejor que los métodos convencionales, y sugiriendo que Anthropic intentaba generar expectativas exageradas en torno a la IA.
«Para mí, Anthropic describe una automatización sofisticada, nada más», afirmó Michał Woźniak, experto independiente en ciberseguridad. «Genera código, pero eso no es "inteligencia", es simplemente copiar y pegar con un toque especial».
Woźniak afirmó que el lanzamiento de Anthropic fue una distracción de una preocupación mayor en ciberseguridad: la integración, por parte de empresas y gobiernos, de herramientas de IA "complejas y poco conocidas" en sus operaciones sin comprenderlas, lo que las expone a vulnerabilidades. La verdadera amenaza, según él, son los propios ciberdelincuentes y las prácticas de ciberseguridad deficientes.
Anthropic, como todas las empresas líderes en IA, cuenta con medidas de seguridad que se supone impiden que sus modelos participen en ciberataques o promuevan daños en general. Sin embargo, la empresa declaró que los hackers lograron eludir estas medidas haciendo que Claude simulara ser un "empleado de una empresa legítima de ciberseguridad" realizando pruebas.
Woźniak añadió: "La valoración de Anthropic ronda los 180.000 millones de dólares, y todavía no son capaces de evitar que sus herramientas sean vulneradas por una táctica que un niño de 13 años utiliza para hacer bromas telefónicas".
Marius Hobbhahn, fundador de Apollo Research, empresa que evalúa la seguridad de los modelos de IA, afirmó que los ataques eran una muestra de lo que podría ocurrir a medida que aumenten las capacidades.
«Creo que la sociedad no está bien preparada para este panorama en constante evolución en lo que respecta a la IA y las capacidades cibernéticas. Preveo que se producirán muchos más incidentes similares en los próximos años, posiblemente con consecuencias de mayor gravedad».