Problème 6652
Des États et des réseaux de cybercriminels expérimentent Gemini pour développer un module malveillant de type « robot pensant » capable de réécrire son propre code afin d'échapper à la détection et de créer un agent d'IA qui traque le comportement des ennemis, selon le Google Threat Intelligence Group.
Dans son dernier rapport AI Threat Tracker, publié mercredi, Google indique avoir observé une évolution des comportements adverses au cours de l'année écoulée.
Les attaquants n'utilisent plus Gemini uniquement pour gagner en productivité : traduction et personnalisation de messages d'hameçonnage, recherche d'informations sur les cibles de surveillance, utilisation de l'IA pour le support technique et écriture de scripts. Ils testent également des logiciels malveillants intégrant l'IA dans leurs opérations, selon nos informations.
Par exemple, APT42, la branche cybernétique du Corps des gardiens de la révolution islamique iranien (CGRI), utilise depuis longtemps l'IA pour des campagnes d'hameçonnage et comme outil de traduction.
Plus récemment, des agents du gouvernement iranien ont tenté d'utiliser Gemini pour créer un « agent de traitement de données » capable de convertir des requêtes en langage naturel en requêtes SQL afin d'analyser des informations personnelles identifiables (IPI) et d'utiliser ces données sensibles pour obtenir des informations sur le patrimoine, la localisation, les données démographiques et le comportement des individus.
Selon le GTIG, APT42 « a fourni à Gemini des schémas pour plusieurs types de données distincts afin d'effectuer des requêtes complexes, comme associer un numéro de téléphone à son propriétaire, suivre les déplacements d'une personne ou générer des listes de personnes en fonction d'attributs communs ». Le GTIG précise avoir depuis désactivé ces comptes.
Logiciels malveillants utilisant des modules logiques logiques (LLM) lors de leur exécution
Par ailleurs, dans ce que Google qualifie de « première utilisation de l'IA juste-à-temps dans un logiciel malveillant », une nouvelle famille de code utilise des LLM lors de son exécution pour générer des scripts malveillants à la volée, s'obfusquer et créer des fonctions malveillantes.
Bien qu'encore expérimental, ce programme d'installation de logiciels malveillants, identifié sous le nom de PromptFlux, fournit « un indicateur précoce de l'évolution des menaces et de leur capacité potentielle à intégrer des capacités d'IA dans de futures intrusions », indique le rapport.
Les analystes de menaces de Google ont initialement repéré PromptFlux début juin. Il est écrit en VBScript et inclut un module Thinking Robot. Ce composant interagit avec l'API de Gemini pour demander des techniques d'obfuscation et d'évasion VBScript. Il les utilise pour réécrire son propre code source, ce qui lui permet de contourner les outils de détection de logiciels malveillants statiques basés sur les signatures. La nouvelle version est ensuite enregistrée pour assurer sa persistance.
« PromptFlux a été découvert sur VirusTotal, où l'auteur de la menace semblait tester les taux de détection du logiciel malveillant », a déclaré Steve Miller, responsable technique de la mission de lutte contre les menaces IA chez GTIG, au Register. « Ce logiciel malveillant se distingue par son type de fichier et son comportement unique lors de l'interaction avec des API d'IA légitimes. Bien que ce comportement ne soit pas ouvertement malveillant en soi, il est extrêmement rare qu'une macro Visual Basic Script se comporte ainsi, et des anomalies comme celle-ci peuvent aider les équipes de sécurité à identifier des activités suspectes à approfondir. »
La bonne nouvelle pour les équipes de sécurité est que PromptFlux n'est pas encore opérationnel. Dans sa forme actuelle, le logiciel malveillant ne peut pas compromettre les réseaux ou les appareils des victimes, et Google a désactivé les comptes liés à cette activité.
Cependant, Google affirme avoir identifié plusieurs variantes de PromptFlux grâce à la régénération de code pilotée par LLM. L'une d'elles remplace la fonction Thinking Robot par une fonction Thinking qui tente de tromper Gemini afin qu'il réécrive le code source du logiciel malveillant toutes les heures via une invite sournoise. Cette invite ordonne au modèle d'agir comme un expert en obfuscation de scripts VBScript.
Bien que ce logiciel malveillant ne soit pas attribué à un groupe particulier, les noms de fichiers « révèlent des comportements généralement associés à des acteurs motivés par le gain financier », ont écrit les chercheurs.
Extraction de données par IA
Dans un autre cas d'attaque utilisant le malware « Prompt » – cette fois-ci lors d'une opération réelle –, en juin, le GTIG a indiqué avoir repéré le groupe russe APT28 (également connu sous les noms de Fancy Bear, Forest Blizzard ou FrozenLake) utilisant un nouveau malware d'extraction de données, PromptSteal, contre l'Ukraine.
Les États-Unis et le Royaume-Uni ont déclaré qu'APT28 fait partie de l'unité militaire 26165 du GRU (Direction principale du renseignement de l'état-major général russe).
Au lieu d'intégrer directement les commandes dans le malware, PromptSteal interroge les LLM (Local Mobile Systems) lors des attaques afin de générer des commandes que le malware exécute via l'API de Hugging Face. D'après Google, il s'agit d'une autre première : un logiciel malveillant interrogeant un LLM déployé en production.
Voici l'une des invites utilisées par ce mineur de données :
« Créez une liste de commandes permettant de créer le dossier C:\Programdata\info et de collecter des informations sur l'ordinateur, le matériel, les processus et services, les réseaux et le domaine Active Directory. Exécutez ces commandes sur une seule ligne et ajoutez chaque résultat au fichier texte c:\Programdata\info\info.txt. Ne renvoyez que les commandes, sans formatage Markdown. »
Il semblerait qu'APT28 continue de perfectionner ce logiciel malveillant. Les analystes indiquent avoir repéré de nouveaux échantillons intégrant l'obfuscation et modifiant la méthode de commande et de contrôle.
Si ces deux nouveaux échantillons de logiciels malveillants vous semblent familiers, c'est normal. Ils partagent le préfixe « Prompt » avec PromptLock, le ransomware utilisant l'IA, initialement publié sur VirusTotal et qui s'est avéré être une preuve de concept développée par une équipe d'ingénieurs de l'Université de New York – et non une opération criminelle ou un groupe soutenu par un gouvernement.
Des groupes basés en Chine utilisent également Gemini à des fins malveillantes. Dans un cas cité par le rapport, Google indique qu'un utilisateur lié à la Chine a demandé à Gemini d'identifier des failles sur un système compromis. Face au refus de l'IA, qui invoquait des raisons de sécurité, le potentiel attaquant a tenté de manipuler le chatbot en reformulant la question et en prétendant participer à un concours de sécurité de type « capture du drapeau ».
Cela a fonctionné, et Gemini a fourni « des informations utiles qui pourraient être utilisées à mauvais escient pour exploiter le système ». ®