Problème 4413

Maintenant que les criminels ont compris qu'il n'est pas nécessaire de former leurs propres LLM à des fins malveillantes - il est beaucoup moins cher et plus facile de voler des informations d'identification puis de jailbreaker celles qui existent déjà - la menace d'une attaque de chaîne d'approvisionnement à grande échelle utilisant l'IA générative devient plus réelle.
Non, nous ne parlons pas d'une attaque entièrement générée par l'IA à partir de l'accès initial à l'arrêt des opérations commerciales. Technologiquement, les criminels n'en sont pas encore là. Mais une chose dans laquelle les LLM deviennent très bons est d'aider aux campagnes d'ingénierie sociale.
Et c'est pourquoi Crystal Morin, ancienne analyste du renseignement pour l'US Air Force et stratège en cybersécurité chez Sysdig, prévoit de voir des attaques de chaîne d'approvisionnement très réussies en 2025 qui proviennent d'un spear phishing généré par LLM.
Lorsqu'il s'agit d'utiliser des LLM, « les acteurs de la menace apprennent, comprennent et acquièrent la configuration du terrain tout comme nous », a déclaré Morin à The Register. « Nous sommes actuellement dans une course contre la montre. C'est une machine contre une autre. »
Sysdig, ainsi que d'autres chercheurs, ont documenté en 2024 une augmentation du nombre de criminels utilisant des identifiants cloud volés pour accéder aux LLM. En mai, l'entreprise de sécurité des conteneurs a documenté des attaquants ciblant le modèle Claude LLM d'Anthropic.
Bien qu'ils auraient pu exploiter cet accès pour extraire des données de formation LLM, leur objectif principal dans ce type d'attaque semblait être de vendre l'accès à d'autres criminels. Le propriétaire du compte cloud a donc dû payer la facture, au prix fort de 46 000 $ par jour lié aux coûts de consommation des LLM.
En creusant plus profondément, les chercheurs ont découvert que le script plus large utilisé dans l'attaque pouvait vérifier les informations d'identification de 10 services d'IA différents : AI21 Labs, Anthropic, AWS Bedrock, Azure, ElevenLabs, MakerSuite, Mistral, OpenAI, OpenRouter et GCP Vertex AI.
Nous sommes actuellement dans une course contre la montre. C'est une machine contre une machine
Plus tard dans l'année, Sysdig a repéré des attaquants qui tentaient d'utiliser des informations d'identification volées pour activer les LLM.
L'équipe de recherche sur les menaces qualifie toute tentative d'obtention illégale d'un accès à un modèle de « LLMjacking » et a signalé en septembre que ces types d'attaques étaient « en hausse, avec une augmentation de 10 x des demandes LLM au cours du mois de juillet et un nombre de 2 x plus élevé d'adresses IP uniques engagées dans ces attaques au cours du premier semestre 2024 ».
Non seulement cela coûte aux victimes une somme d'argent importante, selon Sysdig, mais cela peut s'élever à plus de 100 000 $ par jour lorsque l'organisation victime utilise des modèles plus récents comme Claude 3 Opus.
De plus, les victimes sont obligées de payer pour les personnes et la technologie nécessaires pour arrêter ces attaques. Il existe également un risque que les LLM d'entreprise soient utilisés comme armes, ce qui entraîne des coûts potentiels supplémentaires.
En 2025, « la plus grande préoccupation concerne le spear phishing et l'ingénierie sociale », a déclaré Morin. « Il existe d'innombrables façons d'accéder à un LLM, et ils peuvent utiliser cette GenAI pour créer des messages uniques et personnalisés aux personnes qu'ils ciblent en fonction de votre employeur, de vos préférences d'achat, de la banque que vous utilisez, de la région dans laquelle vous vivez, des restaurants et d'autres choses de ce genre dans la région. »
En plus d'aider les attaquants à surmonter les barrières linguistiques, cela peut rendre les messages envoyés par e-mail ou par des applications de messagerie sur les réseaux sociaux encore plus convaincants car ils sont expressément conçus pour les victimes individuelles.
« Ils vont vous envoyer un message de ce restaurant qui se trouve juste au bout de la rue, ou qui est populaire dans votre ville, en espérant que vous cliquerez dessus », a ajouté Morin. « Cela va donc favoriser leur succès. C'est ainsi que se produisent de nombreuses violations réussies. Il s'agit simplement d'un accès initial de personne à personne. »
Elle a cité l'attaque par ransomware de Change Healthcare - pour laquelle, il faut le préciser, il n'existe aucune preuve suggérant qu'elle ait été assistée par un LLM - comme exemple d'une des violations extrêmement dommageables de 2024.
Dans ce cas, une équipe de ransomware a bloqué les systèmes de Change Healthcare, perturbant des milliers de pharmacies et d'hôpitaux à travers les États-Unis et accédant aux données privées appartenant à environ 100 millions de personnes. Il a fallu au géant des paiements de soins de santé neuf mois pour rétablir ses services de clearinghouse après l'attaque.
Il s'agira d'une toute petite partie de la chaîne d'attaque, mais avec un impact potentiellement énorme
« Pour revenir au spear phishing : imaginez qu'un employé de Change Healthcare reçoive un e-mail et clique sur un lien », a déclaré Morin. « L'attaquant a désormais accès à ses identifiants, ou à cet environnement, et il peut entrer et se déplacer latéralement. »
Si nous voyons ce type d'assistance GenAI, « il s'agira d'une toute petite partie de la chaîne d'attaque, mais avec un impact potentiellement énorme », a-t-elle ajouté.
Alors que les startups et les entreprises existantes publient des outils de sécurité qui utilisent également l'IA pour détecter et prévenir les tentatives de phishing par e-mail, il existe des mesures très simples que tout le monde peut prendre pour éviter de tomber dans le piège de tout type de tentative de phishing. « Faites juste attention à ce sur quoi vous cliquez », a conseillé Morin.
En outre, faites très attention à l'expéditeur de l'e-mail. « Peu importe la qualité du corps du courriel. Avez-vous regardé l'adresse électronique et c'est une chaîne de caractères bizarre ou une adresse bizarre comme nom@gmail mais il est indiqué qu'elle provient de Verizon ? Cela n'a aucun sens », a-t-elle ajouté.
Les LLM peuvent également aider les criminels à créer un domaine avec différents caractères alphanumériques basés sur des noms d'entreprises légitimes et bien connues, et ils peuvent utiliser diverses invites pour rendre l'expéditeur plus crédible.
Même le phishing par appel vocal deviendra probablement plus difficile à distinguer en raison de l'IA utilisée pour le clonage vocal, estime Morin.
« Je reçois environ cinq appels de spam par jour de tout le pays et je les ignore simplement parce que mon téléphone me dit que c'est du spam », a-t-elle noté.
« Mais ils utilisent aussi le clonage vocal maintenant », a poursuivi Morin. « Et la plupart du temps, lorsque les gens répondent à votre téléphone, surtout si vous conduisez ou autre, vous n'écoutez pas activement ou vous effectuez plusieurs tâches à la fois, et vous risquez de ne pas remarquer qu'il s'agit d'un clone vocal - surtout si cela ressemble à quelqu'un que vous connaissez, ou si ce qu'ils disent est crédible, et ils semblent vraiment provenir de votre banque. »
Nous avons eu un aperçu de cela pendant la période précédant l'élection présidentielle américaine de 2024, lorsque des robocalls générés par l'IA se faisant passer pour le président Biden ont exhorté les électeurs à ne pas participer à l'élection primaire présidentielle de l'État.
Depuis lors, la FTC a émis une récompense de 25 000 $ pour solliciter des idées sur les meilleurs moyens de lutter contre le clonage vocal par l'IA et la FCC a déclaré que les appels automatisés générés par l'IA étaient illégaux.
Morin ne s'attend pas à ce que cela ait un effet dissuasif sur les criminels.
"Si on veut, on peut", a-t-elle estimé. "Si cela coûte de l'argent, alors ils trouveront un moyen de l'obtenir gratuitement." ®