Incidents associés

Un réseau de propagande basé à Moscou appelé « Pravda » a systématiquement infiltré les systèmes d’intelligence artificielle (IA) du monde entier, intégrant la désinformation russe dans les principaux outils d’IA générative, a révélé un audit de NewsGuard [(https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global).
L’audit a révélé que les chatbots IA répétaient les fausses déclarations du réseau pro-Kremlin Pravda 33 % du temps, démontrant une vulnérabilité significative dans la capacité des modèles IA à filtrer les contenus trompeurs.
L’IA comme nouveau champ de bataille de la désinformation
Contrairement aux campagnes de désinformation traditionnelles qui ciblent les publics humains, le réseau Pravda semble être optimisé pour manipuler les chatbots IA. En inondant les moteurs de recherche de récits fabriqués et de fausses déclarations, le réseau s’assure que les modèles IA formés sur des données accessibles au public absorbent et reproduisent la désinformation soutenue par le Kremlin.
L’enquête de NewsGuard a examiné dix chatbots d’IA de premier plan, dont ChatGPT-4o d’OpenAI, Gemini de Google, Copilot de Microsoft, Meta AI et Grok de xAI. Lorsqu’ils ont été testés sur 15 faux récits spécifiques, ces systèmes d’IA ont non seulement répété la désinformation, mais, dans certains cas, ont directement cité des sources du réseau Pravda comme des organes d’information légitimes.
L’ampleur de cette opération est considérable. Le réseau Pravda a produit 3,6 millions d’articles rien qu’en 2024 et opère sur 150 domaines dans plusieurs langues, ciblant 49 pays. Bien que ses sites Web reçoivent un trafic humain direct minimal, son objectif principal semble être d’influencer les modèles d’IA plutôt que de créer un lectorat organique.
Comment la désinformation de Pravda est intégrée aux modèles d’IA
Le réseau Pravda ne crée pas de contenu original mais regroupe et amplifie plutôt les récits du Kremlin en republiant des histoires des médias d’État russes, des influenceurs pro-Kremlin et des agences gouvernementales. Cela permet aux modèles d’IA formés sur de vastes ensembles de données Internet d’intégrer ces récits, les présentant sans le savoir comme des faits.
L’une des figures clés de la promotion de cette stratégie est John Mark Dougan, un fugitif américain devenu propagandiste pro-Kremlin basé à Moscou. Lors d’une conférence en 2025 à laquelle participaient des responsables russes, Dougan a déclaré : « En poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale. »
Ses remarques concordent avec les conclusions de l’audit de NewsGuard, qui confirme que les modèles d ’IA dépendent de plus en plus de récits influencés par la Russie en raison du « toilettage LLM » systématique, une méthode permettant d’influencer les grands modèles linguistiques en saturant leurs données d’entraînement avec un contenu spécifique.
La portée mondiale de la manipulation de l’IA de Pravda
Le réseau Pravda s’étend bien au-delà de la Russie, opérant dans de nombreuses langues et régions. Environ 40 de ses sites Web publient en russe, ciblant l’Ukraine via des domaines tels que News-Kiev.ru et Donetsk-News.ru. Environ 70 sites ciblent l’Europe, publiant en anglais, en français, en tchèque, en irlandais et en finnois, tandis que d’autres s’adressent à des publics d’Afrique, du Moyen-Orient et d’Asie.
Une analyse de Viginum, une agence gouvernementale française surveillant la désinformation étrangère, a permis de remonter aux opérations du réseau jusqu’à TigerWeb, une société informatique basée en Crimée liée à Yevgeny Shevchenko, un développeur Web ayant des liens avec l’administration de Crimée soutenue par la Russie. Viginum a confirmé que le réseau répondait aux critères d’« interférence numérique étrangère ».
Sensibilité des systèmes d’IA à la désinformation
L’étude de NewsGuard a révélé que les principaux modèles d’IA ont répété la désinformation russe dans 33,55 % des cas, ont fourni une non-réponse dans 18,22 % des cas et ont réussi à démystifier la désinformation dans 48,22 % des cas. L’incapacité de ces modèles à filtrer les récits soutenus par le Kremlin présente des risques politiques et sociaux importants.
Dans un cas, lorsqu’on leur a demandé d’affirmer à tort que le président ukrainien Volodymyr Zelensky avait interdit le Truth Social de Donald Trump en Ukraine, six modèles d’IA ont répété l’histoire inventée, citant souvent des sources affiliées à la Pravda. Une autre fausse affirmation – selon laquelle des combattants du bataillon ukrainien Azov auraient brûlé une effigie de Trump – a été propagée de la même manière par quatre des chatbots testés.
Les défis du filtrage de la désinformation par l’IA
La stratégie du réseau Pravda consistant à lancer continuellement de nouveaux domaines rend difficile pour les entreprises d’IA de bloquer la désinformation à sa source. De plus, comme le réseau réédite principalement des récits alignés sur le Kremlin plutôt que de créer du contenu original, la suppression de ses sites n’élimine pas la propagation de fausses allégations.
Le président russe Vladimir Poutine a reconnu l’importance de l’IA dans la guerre de l’information. Lors d’une conférence sur l’IA en 2023 à Moscou, il a critiqué les modèles d’IA génératifs occidentaux pour leur approche « biaisée » et a promis d’accroître les investissements dans le développement de l’IA russe.
Résoudre la vulnérabilité de l’IA à la désinformation
Les experts avertissent que si les entreprises d’IA ne prennent pas de mesures proactives pour détecter et contrer l’influence des réseaux de désinformation, les réponses générées par l’IA continueront d’être exploitées comme des outils de propagande étrangère. Les solutions possibles incluent des mécanismes de filtrage améliorés, une plus grande transparence dans les données de formation de l’IA et des partenariats avec des vérificateurs de faits indépendants pour vérifier le contenu généré par l’IA.
Alors que l’IA générative devient une source d’information de plus en plus dominante, sa vulnérabilité à la désinformation représente un défi crucial pour les décideurs politiques, les développeurs d’IA et le public. Sans intervention, l’IA peut devenir un amplificateur involontaire de la propagande soutenue par l’État, remodelant le discours mondial d’une manière qui sert les intérêts autoritaires.