Incidentes Asociados
LAS VEGAS --- Mientras muchos sectores empresariales aún sopesan las ventajas y desventajas de la IA generativa, los hackers se están lanzando con fuerza.
Han descubierto cómo usar los programas de inteligencia artificial que proliferan en la mayoría de los ordenadores contra los usuarios, con efectos devastadores, según expertos en ciberseguridad, quienes expresan una creciente preocupación por su capacidad para defenderse de los ciberataques.
Los hackers ahora pueden convertir la IA en una especie de aprendiz de brujo, según los analistas de amenazas. Algo tan simple e inocuo como una invitación de Google Calendar o un correo electrónico de Outlook puede utilizarse para encargar a los programas de IA conectados que extraigan archivos confidenciales sin activar ninguna alarma de seguridad.
El problema se agrava por el ritmo rápido y, a veces, imprudente de las implementaciones de nuevos productos de IA, ya sea por parte de ejecutivos deseosos de complacer a los inversores o de empleados por iniciativa propia, incluso desafiando a sus departamentos de TI.
"Es bastante injusto que nos impongan la IA en cada producto cuando introduce nuevos riesgos", afirmó Alex Delamotte, investigador de amenazas de la empresa de seguridad SentinelOne.
La seguridad suele ir a la zaga de la adopción de nuevas tecnologías, como la computación en la nube, que también se popularizó gracias a sus ventajas. Sin embargo, dado que la IA generativa puede hacer mucho más que esa tecnología revolucionaria, sus poderes pueden causar más daños si se abusa de ellas.
En muchos casos, las nuevas técnicas son increíblemente potentes. En una reciente misión de pruebas de defensa, Dave Brauchler, de la empresa de ciberseguridad NCC Group, engañó al asistente de programación de IA de un cliente para que ejecutara programas que cedían las bases de datos y los repositorios de código de la empresa.
"Nunca habíamos sido tan ingenuos con la seguridad", afirmó Brauchler.
Si bien algunas encuestas más amplias muestran resultados mixtos sobre la eficacia de la IA, la mayoría de los desarrolladores de software han adoptado herramientas, incluidas las de las principales empresas de IA, que escriben fragmentos de código, aunque algunos estudios sugieren que estas herramientas son más propensas a introducir fallos de seguridad que los programadores humanos.
Cuanta más autonomía y acceso a los entornos de producción tengan estas herramientas, mayor será el daño que puedan causar.
Un ataque en agosto combinó técnicas de hacking establecidas con este tipo de manipulación de la IA por lo que podría ser la primera vez.
Hackers desconocidos comenzaron con un tipo familiar de ataque a la cadena de suministro. Encontraron la manera de publicar programas aparentemente oficiales que modificaban Nx, una plataforma ampliamente utilizada para la gestión de repositorios de código. Cientos de miles de usuarios de Nx descargaron sin saberlo los programas envenenados.
Al igual que en ataques anteriores a la cadena de suministro de software, los hackers dirigieron el código malicioso para que buscara contraseñas de cuentas, monederos de criptomonedas y otros datos confidenciales de quienes descargaron los programas alterados. Pero, en un giro inesperado, asumieron que muchas de esas personas tendrían instaladas herramientas de programación de Google, Anthropic u otras, y que estas herramientas podrían tener un amplio acceso. Así que el hacker instruyó a esos programas para que eliminaran los datos. Más de 1000 máquinas de usuarios enviaron información.
"Lo que hace especial a este ataque es que, según tengo conocimiento, es la primera vez que el atacante intentó secuestrar la IA que se ejecuta en el entorno de la víctima", declaró Henrik Plate, investigador de la empresa de seguridad de software Endor Labs.
"El mayor riesgo para las empresas, en particular, es que el código que se ejecuta en la máquina de un desarrollador podría tener mayor alcance que el de otras máquinas. Podría tener acceso a otros sistemas corporativos", añadió Plate. "El atacante podría haber utilizado el ataque para otras cosas, como modificar el código fuente".
Las demostraciones en la conferencia de seguridad Black Hat del mes pasado en Las Vegas incluyeron otros métodos para explotar la IA que llamaron la atención.
Estudiantes e investigadores de ciberseguridad compiten en la Universidad Howard de Washington en 2023 en un desafío patrocinado por la Casa Blanca para localizar vulnerabilidades de software. (Marvin Joseph/The Washington Post)
En uno de ellos, un atacante imaginario enviaba documentos por correo electrónico con instrucciones ocultas dirigidos a ChatGPT o a la competencia. Si un usuario solicitaba un resumen o este se creaba automáticamente, el programa ejecutaba las instrucciones, incluso encontrando contraseñas digitales y enviándolas fuera de la red.
Un ataque similar a Gemini de Google ni siquiera necesitaba un archivo adjunto, solo un correo electrónico con instrucciones ocultas. El resumen de IA falsamente indicaba al objetivo que una cuenta había sido comprometida y que debía llamar al número del atacante, imitando las estafas de phishing exitosas.
Las amenazas se vuelven más preocupantes con el auge de la IA agentica, que permite a los navegadores y otras herramientas realizar transacciones y tomar decisiones sin supervisión humana.
La empresa de seguridad Guardio ya ha engañado al complemento del navegador Comet de Perplexity para que compre un reloj en una tienda online falsa y siga las instrucciones de un correo electrónico bancario falso.
Los atacantes también están utilizando directamente la IA. Anthropic anunció el mes pasado que había descubierto una campaña completa de ransomware dirigida por alguien que usaba IA para todo: encontrar sistemas vulnerables en una empresa, atacarlos, evaluar los datos robados e incluso sugerir un rescate razonable. Gracias a los avances en la interpretación del lenguaje natural, el delincuente ni siquiera necesitaba ser un buen programador.
También se están empezando a utilizar programas avanzados de IA para encontrar vulnerabilidades de seguridad no descubiertas previamente, las "vulneraciones de día cero" que los hackers valoran mucho y explotan para acceder a software configurado correctamente y completamente actualizado con parches de seguridad.
Siete equipos de hackers que desarrollaron "sistemas de razonamiento cibernético" autónomos para un concurso organizado el mes pasado por la Agencia de Proyectos de Investigación Avanzada de Defensa del Pentágono lograron encontrar 18 vulnerabilidades de día cero en 54 millones de líneas de código abierto. Trabajaron para corregir estas vulnerabilidades, pero las autoridades afirmaron que hackers de todo el mundo están desarrollando iniciativas similares para localizarlas y explotarlas.
Algunos defensores de la seguridad con amplia experiencia predicen una carrera mundial desenfrenada única en la vida para usar la tecnología con el fin de encontrar nuevas vulnerabilidades y explotarlas, dejando puertas traseras a las que pueden recurrir cuando quieran.
La verdadera pesadilla es cuando estos mundos colisionan y la IA de un atacante encuentra la manera de entrar y comienza a comunicarse con la IA de la víctima, trabajando en conjunto: «la IA malvada colabora con la IA buena», como lo expresó Delamotte de SentinelOne.
«El año que viene», afirmó Adam Meyers, vicepresidente sénior de CrowdStrike, «la IA será la nueva amenaza interna».