Incidentes Asociados
Anthropic anunció el jueves que hackers patrocinados por el Estado chino utilizaron Claude, el modelo de IA de la compañía, para automatizar aproximadamente 30 ataques contra corporaciones y gobiernos durante una campaña en septiembre, según un reporte del Wall Street Journal (https://www.wsj.com/tech/ai/china-hackers-ai-cyberattacks-anthropic-41d7ce76).
Anthropic afirmó que entre el 80% y el 90% del ataque se automatizó con IA, un nivel superior al de ataques anteriores. Según declaró Jacob Klein, jefe de inteligencia de amenazas de Anthropic, al Journal, el ataque se produjo «literalmente con solo pulsar un botón y con una mínima interacción humana». Añadió: «El humano solo intervino en algunos puntos críticos, diciendo: "Sí, continúen", "No continúen", "Gracias por la información", "Oh, esto no parece correcto, Claude, ¿estás seguro?"».
El hackeo impulsado por IA es cada vez más común, al igual que la estrategia más reciente de usar IA para coordinar las diversas tareas necesarias para un ataque exitoso. Google detectó que hackers rusos utilizaban modelos de lenguaje complejo para generar comandos para su malware, según un informe de la compañía publicado el 5 de noviembre.
Durante años, el gobierno estadounidense ha advertido que China utiliza inteligencia artificial para robar datos de ciudadanos y empresas estadounidenses, algo que China ha negado. Anthropic declaró al Journal que confía en que los hackers contaron con el patrocinio del gobierno chino. En esta campaña, los hackers robaron datos confidenciales de cuatro víctimas, pero, al igual que en ataques anteriores, Anthropic no reveló los nombres de los objetivos, ni de las víctimas ni de quienes sufrieron el ataque. La empresa sí aclaró que el gobierno estadounidense no fue uno de los objetivos.