Incidents associés
Anthropic, une entreprise d'intelligence artificielle (IA), a révélé que des acteurs malveillants inconnus ont exploité son chatbot Claude pour une opération d'« influence en tant que service » afin d'interagir avec des comptes authentiques sur Facebook et X.
Cette activité sophistiquée, présentée comme motivée par des raisons financières, aurait utilisé son outil d'IA pour orchestrer 100 profils distincts sur les deux plateformes de médias sociaux, créant ainsi un réseau de « comptes politiquement alignés » qui ont interagi avec des « dizaines de milliers » de comptes authentiques.
L'opération, désormais perturbée, a privilégié la persistance et la longévité à la vitalité et a cherché à amplifier des perspectives politiques modérées qui soutenaient ou affaiblissaient les intérêts européens, iraniens, des Émirats arabes unis (EAU) et kenyans.
Ces actions comprenaient la promotion des Émirats arabes unis. comme un environnement commercial de premier ordre, tout en critiquant les cadres réglementaires européens, en se concentrant sur les discours sur la sécurité énergétique pour le public européen et sur l'identité culturelle pour le public iranien.
Ces efforts ont également permis de diffuser des discours soutenant des personnalités albanaises et critiquant des figures de l'opposition dans un pays européen non spécifié, ainsi que de promouvoir des initiatives de développement et des personnalités politiques au Kenya. Ces opérations d'influence s'inscrivent dans le cadre de campagnes affiliées à l'État, même si l'identité exacte des commanditaires reste inconnue, a-t-elle ajouté.
« Ce qui est particulièrement novateur, c'est que cette opération a utilisé Claude non seulement pour générer du contenu, mais aussi pour décider quand les comptes de robots sur les réseaux sociaux commenteraient, aimeraient ou repartageraient les publications d'utilisateurs authentiques », a souligné l'entreprise.
« Claude a servi d'orchestrateur pour décider des actions que les comptes de robots sur les réseaux sociaux devaient entreprendre en fonction de personnalités à motivation politique. »
Malgré l'utilisation de Claude comme décideur tactique, le chatbot a été utilisé pour générer des réponses appropriées, alignées sur les orientations politiques, dans la voix et la langue maternelle de la personnalité, et pour créer des invites pour deux outils populaires de génération d'images.
L'opération est considérée comme le fruit d'un service commercial s'adressant à différents clients dans différents pays. Au moins quatre campagnes distinctes ont été identifiées grâce à ce cadre programmatique.
« L'opération a mis en œuvre une approche JSON hautement structurée pour la gestion des personas, lui permettant d'assurer la continuité sur toutes les plateformes et d'établir des modèles d'engagement cohérents, reproduisant le comportement humain authentique », ont expliqué les chercheurs Ken Lebedev, Alex Moix et Jacob Klein.
« Grâce à ce cadre programmatique, les opérateurs ont pu standardiser et étendre efficacement leurs efforts, et permettre un suivi et une mise à jour systématiques des attributs des personas, de l'historique d'engagement et des thèmes narratifs sur plusieurs comptes simultanément. »
[
](h (http://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-1vRw02sq1ySppyUAUSf83eVbtG4q4X-6vQlxuMC53EfE89yGX75bRY64fsgzVh9lNaL4ra1s9KXz1MZ9GAczDZbnJ1reeey9CApPUn3qlcmSOVOUqMRb1Epq6G30VRn5fghodeAqNtOeAn_sptUtzXRmL9foKw-UinpooSsttCWzBFgFoxhyphenhyphenVgoeXcAh/s728-rw-e365/ai-tool.jpg)
Autre L'aspect intéressant de la campagne résidait dans le fait qu'elle demandait « stratégiquement » aux comptes automatisés de répondre avec humour et sarcasme aux accusations d'autres comptes les accusant d'être des bots.
Anthropic a déclaré que cette opération mettait en évidence la nécessité de nouveaux cadres pour évaluer les opérations d'influence axées sur le développement de relations et l'intégration communautaire. L'entreprise a également averti que des activités malveillantes similaires pourraient se généraliser dans les années à venir, l'IA abaissant encore les barrières permettant de mener des campagnes d'influence.
Par ailleurs, l'entreprise a indiqué avoir banni un acteur malveillant sophistiqué qui utilisait ses modèles pour récupérer des mots de passe et des noms d'utilisateur divulgués associés à des caméras de sécurité et concevoir des méthodes permettant d'attaquer par force brute des cibles connectées à Internet à l'aide des identifiants volés.
L'acteur malveillant a également fait appel à Claude pour traiter les publications issues des journaux de voleurs d'informations publiés sur Telegram, créer des scripts pour récupérer les URL cibles des sites web et améliorer ses propres systèmes afin d'optimiser les fonctionnalités de recherche.
Deux autres cas d'utilisation abusive repérés par Anthropic en mars 2025 sont listés ci-dessous :
- Une campagne de fraude au recrutement utilisant Claude pour enrichir le contenu d'escroqueries ciblant des demandeurs d'emploi dans les pays d'Europe de l'Est
- Un acteur novice utilisant Claude pour améliorer ses capacités techniques et développer des logiciels malveillants avancés dépassant ses compétences, capables d'analyser le dark web et de générer des charges utiles malveillantes indétectables, capables d'échapper aux contrôles de sécurité et de maintenir un accès permanent et durable aux systèmes compromis
« Ce cas illustre comment l'IA peut potentiellement aplanir la courbe d'apprentissage des acteurs malveillants, permettant à des individus disposant de connaissances techniques limitées de développer des outils sophistiqués et potentiellement d'accélérer leur progression, passant d'activités de bas niveau à des activités cybercriminelles plus sérieuses », a déclaré Anthropic.