Incidentes Asociados
Anthropic informó que un presunto hacker vinculado a un estado manipuló una de sus herramientas de codificación basadas en IA para llevar a cabo una sofisticada campaña de espionaje en septiembre contra aproximadamente 30 organizaciones importantes a nivel mundial, según una publicación en su blog del jueves (https://www.anthropic.com/news/disrupting-AI-espionage).
Los hackers utilizaron el código Claude de la compañía para atacar a diversas organizaciones, incluyendo empresas de fabricación de productos químicos, grandes empresas tecnológicas, instituciones financieras y agencias gubernamentales. El grupo atacante, al que la compañía ha designado como GTG-1002, logró vulnerar la seguridad de un pequeño número de los objetivos, según Anthropic.
La compañía afirma que este ataque podría ser uno de los primeros ciberataques a gran escala cometidos sin una participación humana significativa. Entre el 80 % y el 90 % del ataque se realizó mediante IA, según Anthropic, requiriéndose la intervención humana en entre cuatro y seis puntos de decisión clave.
Anthropic afirmó haber bloqueado varias cuentas vinculadas al ataque, notificado a las organizaciones afectadas e informado de los ataques a las autoridades.
Añadió que los operadores humanos seleccionaron los objetivos del ataque y posteriormente desarrollaron un marco para lanzar los hackeos. La herramienta Claude Code se configuró para realizar los ataques automáticamente.
Dado que la herramienta está programada para evitar su uso con fines maliciosos, los atacantes lograron vulnerar Claude Code, lo que les permitió eludir sus medidas de seguridad integradas.
Según la publicación del blog, los distintos pasos del ataque se dividieron en tareas simples, que la herramienta interpretó como pasos inocentes e incrementales sin comprender completamente el contexto de lo que se le solicitaba. Como parte del engaño, los hackers convencieron a Claude de que eran empleados de una empresa de ciberseguridad y que las acciones formaban parte de pruebas defensivas.
La herramienta se utilizó para realizar reconocimiento y encontrar bases de datos de alto valor. Claude identificó y probó vulnerabilidades de seguridad en estos sistemas objetivo y, posteriormente, escribió su propio código de explotación. Tras recopilar nombres de usuario y contraseñas, la herramienta Claude se utilizó para buscar cuentas con privilegios, crear puertas traseras maliciosas y llevar a cabo ataques a gran escala.
Esta es la primera vez que los analistas observan que un agente de IA se utiliza para automatizar un porcentaje tan elevado de un ataque multifásico por parte de un actor de amenazas real.
«Este es un momento crucial en lo que respecta a la transformación de los agentes de IA en herramientas para operaciones cibernéticas ofensivas», afirmó Allie Mellen, analista principal de seguridad y riesgo en Forrester.
La revelación de Anthropic se produce más de una semana después de que el Grupo de Inteligencia de Amenazas de Google (https://cloud.google.com/blog/topics/threat-intelligence/threat-actor-usage-of-ai-tools) publicara un informe que mostraba a hackers utilizando malware con IA en ataques activos.
Los investigadores identificaron familias de malware, como Prompflux y Promptsteal, que utilizaban modelos de lenguaje complejos.
Actores vinculados a estados de Corea del Norte, Irán y China también han utilizado Gemini, la tecnología de IA de Google, para optimizar sus operaciones.
Investigadores de Google afirmaron que estos ataques probablemente no sean incidentes aislados, sino evidencia de una tendencia creciente.
«Muchos otros harán lo mismo pronto, o ya lo han hecho», declaró John Hultquist, analista jefe de GTIG, a Cybersecurity Dive. «La verdadera pregunta es si podremos adaptarnos tan rápido como nuestro adversario».
Nota del editor: Se añade un comentario de Forrester.