Incidents associés
Un réseau de désinformation russe manipule activement des chatbots IA pour diffuser de fausses nouvelles et de la propagande en ligne, selon un nouveau rapport de NewsGuard. L'étude montre que les récits pro-Kremlin déforment le travail de l'intelligence artificielle, affectant des millions d'utilisateurs dans le monde, rapporte Axios.
Le rapport identifie Pravda, un réseau de désinformation basé à Moscou, comme la principale force derrière cette campagne. Son objectif n'est pas de persuader directement les gens, mais d'influencer les réponses des chatbots IA en inondant les moteurs de recherche et les robots d'exploration Web d'une grande quantité de contenu de désinformation.
Selon NewsGuard :
- En 2023, le réseau russe Pravda a publié plus de 3,6 millions d'articles qui ont été intégrés à des chatbots IA populaires de sociétés telles que Microsoft, Google, OpenAI, xAI, Meta, Anthropic, Mistral, Perplexity et You.com ;
- Le réseau a diffusé au moins 207 faux avérés, dont la majorité sont liés à l'Ukraine ;
- Un tiers des réponses des principaux chatbots reproduisaient des arguments initialement publiés par le réseau Pravda, confirmant la vulnérabilité des modèles d'IA à la manipulation.
En dominant les requêtes de recherche, la campagne pro-Kremlin déforme les ensembles de données de formation qui utilisent de grands modèles linguistiques (LLM), influençant la manière dont l'IA résume les informations et répond aux requêtes des utilisateurs.
Le réseau a été lancé en avril 2022, à la suite de l'invasion à grande échelle de l'Ukraine par la Russie. Depuis lors, il s'est étendu à 49 pays et fonctionne dans des dizaines de langues. Selon NewsGuard :
- 150 sites Internet ont été identifiés comme faisant partie du réseau, dont 40 ont des noms de domaine associés à des régions d'Ukraine ;
- Certains sites se concentrent sur des sujets spécifiques plutôt que sur la désinformation régionale ;
- Pravda ne crée pas son propre contenu, mais regroupe plutôt des documents provenant des médias d'État russes et de blogueurs pro-Kremlin, amplifiant ainsi leur influence.
Le rapport confirme les inquiétudes concernant le rôle de l'IA dans la diffusion de la désinformation. Avec l'essor du contenu généré par l'IA, les attaquants peuvent intentionnellement « former » des modèles pour inonder Internet de propagande.
NewsGuard cite également un discours prononcé en janvier 2023 par John Mark Dugan, un Américain qui a fait défection à Moscou et est devenu un propagandiste pro-Kremlin. Lors d'une conférence de responsables du gouvernement russe, il a ouvertement déclaré : « Si nous diffusons les récits russes d'un point de vue russe, nous pouvons réellement changer l'IA du monde. »
Cette étude intervient alors que des rapports font état d'un recul des efforts américains pour contrer les cyberattaques russes. Les experts avertissent que la désinformation et les erreurs involontaires de l'IA pourraient avoir de graves conséquences, d'autant plus que les chatbots deviennent la principale source d'information pour des millions de personnes.
Les systèmes d'IA étant de plus en plus utilisés pour façonner l'opinion publique, la stratégie du réseau Pravda pourrait avoir des implications à long terme sur la sécurité de l'information mondiale, influençant les processus politiques, l'opinion publique et les relations internationales.