Incidents associés
Anthropic a révélé un exemple inquiétant de la manière dont les outils d'IA peuvent être utilisés pour étendre les opérations d'influence, selon un rapport de The Hacker News. L'entreprise a découvert que son chatbot Claude était utilisé pour créer et gérer un réseau de personnages à caractère politique sur Facebook et X. Ces personnages étaient conçus pour interagir avec de vrais utilisateurs et amplifier des récits alignés sur les intérêts de pays comme les Émirats arabes unis, l'Iran, le Kenya et certains pays européens. L'opération se concentrait moins sur le contenu viral et davantage sur un engagement durable par le biais de messages politiques modérés.
Ce qui ressortait dans ce cas, c'était le rôle de Claude non seulement dans la génération de contenu, mais aussi dans l'orchestration du comportement des robots. Le chatbot servait à décider quand et comment les robots des réseaux sociaux commenteraient, aimeraient ou repartageraient du contenu. Elle a généré des publications dans les langues locales, imité l'humour et le sarcasme humains, et exploité des données JSON structurées pour assurer la cohérence entre les différentes plateformes. Les chercheurs affirment que la campagne reflète un niveau d'organisation comparable à celui des services commerciaux offerts au-delà des frontières.
Anthropic a également découvert d'autres utilisations abusives de Claude liées à des activités cybercriminelles. Un acteur l'a utilisé pour récupérer des identifiants divulgués et développer des outils d'attaque par force brute ciblant les systèmes connectés à Internet. Un autre a utilisé le modèle d'IA pour analyser les données des journaux Telegram et automatiser la génération de scripts. Ces exemples illustrent la manière dont les outils d'IA peuvent être manipulés pour réduire les obstacles aux cyberattaques sophistiquées, en particulier pour les cybercriminels novices.
Deux autres exemples illustrent le risque croissant. Une campagne a renforcé le contenu d'une arnaque à l'emploi ciblant les demandeurs d'emploi d'Europe de l'Est, tandis qu'une autre a vu un attaquant peu qualifié développer un logiciel malveillant avec l'aide de l'IA. Ces cas illustrent l'intégration de l'IA dans les flux de travail des menaces dans de nombreux domaines, de l'influence sociale au vol d'identifiants, et soulignent l'urgence de mettre en place des garde-fous pour lutter contre les abus sociaux et techniques.