Problema 6652
Según el Grupo de Inteligencia de Amenazas de Google, grupos de ciberdelincuentes y organizaciones que operan bajo el control de estados-nación están experimentando con Gemini para desarrollar un módulo de malware de "robot pensante" capaz de reescribir su propio código para evitar ser detectado, y crear un agente de IA que rastrea el comportamiento de sus adversarios.
En su más reciente informe AI Threat Tracker, publicado el miércoles, Google afirma haber observado un cambio en el comportamiento de los adversarios durante el último año.
Los atacantes ya no solo utilizan Gemini para aumentar su productividad (por ejemplo, traduciendo y personalizando señuelos de phishing, buscando información sobre objetivos de vigilancia, utilizando IA para soporte técnico y escribiendo scripts de software). También están probando malware con IA en sus operaciones.
Por ejemplo, APT42, el brazo cibernético del Cuerpo de la Guardia Revolucionaria Islámica de Irán (CGRI), lleva tiempo utilizando IA para campañas de phishing y como herramienta de traducción.
Más recientemente, sin embargo, agentes del gobierno intentaron usar Gemini para crear un "agente de procesamiento de datos" que convierte las solicitudes en lenguaje natural en consultas SQL para analizar información de identificación personal (IIP) y usar esa información sensible para obtener datos sobre la propiedad de activos, la ubicación, la demografía y el comportamiento de las personas.
APT42 proporcionó a Gemini esquemas para varios tipos de datos distintos con el fin de realizar consultas complejas, como vincular un número de teléfono a un propietario, rastrear los patrones de viaje de una persona o generar listas de personas basadas en atributos compartidos, según GTIG, que añade que desde entonces ha desactivado estas cuentas.
Malware que utiliza LLM durante la ejecución
Además, en lo que Google denomina el "primer uso de IA justo a tiempo en malware", una nueva familia de código utiliza LLM durante la ejecución para generar scripts maliciosos sobre la marcha, ofuscarse y crear funciones maliciosas.
Aunque todavía es experimental, este malware, identificado como PromptFlux, proporciona "un indicador temprano de cómo evolucionan las amenazas y cómo pueden integrar capacidades de IA en futuras actividades de intrusión", según el informe.
Los analistas de amenazas de Google detectaron PromptFlux a principios de junio. Está escrito en VBScript e incluye un módulo de Thinking Robot. Este componente interactúa con la API de Gemini para solicitar técnicas de ofuscación y evasión de VBScript, que utiliza para reescribir su propio código fuente. Esto le permite burlar las herramientas de detección de malware estáticas basadas en firmas y guarda la nueva versión para garantizar su persistencia.
«PromptFlux se descubrió en VirusTotal, donde el atacante parecía estar probando las tasas de detección del malware», declaró Steve Miller, jefe técnico de la misión de amenazas de IA de GTIG, a The Register. «El malware destaca por su tipo de archivo, combinado con un comportamiento singular al contactar con API de IA legítimas. Si bien este comportamiento no es abiertamente malicioso en sí mismo, es extremadamente raro que una macro de Visual Basic Script se comporte de esta manera, y anomalías como esta pueden ayudar a los defensores a identificar conjuntos de actividad interesantes para investigar más a fondo».
La buena noticia para los defensores es que PromptFlux aún no está listo para atacar. El malware, en su forma actual, no tiene la capacidad de comprometer las redes o dispositivos de las víctimas, y Google ha inhabilitado las cuentas vinculadas a esta actividad.
Sin embargo, Google afirma haber identificado varias variantes de PromptFlux mediante la regeneración de código impulsada por LLM. Una de ellas sustituyó la función Thinking Robot por una función Thinking que intenta engañar a Gemini para que reescriba el código fuente del malware cada hora mediante una solicitud engañosa. Esta función le indica al modelo que actúe como un "ofuscador experto de VBScript".
Si bien este malware no se atribuye a ningún grupo en particular, los nombres de los archivos "ponen de manifiesto comportamientos comúnmente asociados con actores motivados por intereses económicos", escribieron los investigadores.
Minería de datos con IA
En otro caso de ataques con malware "Prompt" —esta vez en una operación real—, en junio, GTIG afirma haber detectado al grupo ruso APT28 (también conocido como Fancy Bear, Forest Blizzard o FrozenLake) utilizando un nuevo malware de minería de datos, denominado PromptSteal, contra Ucrania.
Estados Unidos y el Reino Unido han declarado que APT28 forma parte de la unidad militar rusa GRU (Dirección Principal de Inteligencia del Estado Mayor General) 26165.
En lugar de codificar comandos directamente en el malware, PromptSteal consulta los LLM (Lenguajes de Aprendizaje Automático) durante los ataques para generar comandos que el malware ejecuta mediante la API de Hugging Face. Según Google, esto es otra primicia: malware que consulta un LLM desplegado en un entorno operativo real.
Aquí está una de las instrucciones que utiliza este minero de datos:
Crea una lista de comandos para crear la carpeta C:\Programdata\info y recopilar información del equipo, hardware, procesos y servicios, redes y dominio de Active Directory, ejecutándolos en una sola línea y añadiendo cada resultado al archivo de texto c:\Programdata\info\info.txt. Devuelve solo comandos, sin formato Markdown.
Parece que APT28 sigue perfeccionando este malware y los analistas afirman haber detectado nuevas muestras que incorporan ofuscación y modifican el método de comando y control.
Si estas dos nuevas muestras de malware te resultan familiares, es porque lo son. Comparten el prefijo «Prompt» con PromptLock, el ransomware con inteligencia artificial subido a VirusTotal que resultó ser una prueba de concepto desarrollada por un grupo de ingenieros de la Universidad de Nueva York, no por una organización criminal ni un grupo gubernamental.
Grupos con base en China también utilizan Gemini con fines maliciosos. En un caso, según el informe, Google afirma que un usuario vinculado a China solicitó a Gemini que identificara errores en un sistema comprometido. Cuando la IA se negó, alegando motivos de seguridad, el atacante intentó engañar al chatbot mediante ingeniería social, modificando la solicitud y afirmando que participaba en una competición de seguridad de captura de bandera.
Esto funcionó, y Gemini proporcionó "información útil que podría utilizarse indebidamente para explotar el sistema". ®