Incidents associés

Une opération de désinformation basée à Moscou alimente systématiquement les systèmes d'IA occidentaux en propagande russe via un vaste réseau de sites de fausses nouvelles appelé « Pravda » (qui signifie « vérité » en russe).
De récentes conclusions de NewsGuard montrent que les principaux chatbots d'IA ont accepté les faux récits du réseau Pravda basé à Moscou dans 33,5 % des cas. Dans 48,2 % des cas, les systèmes ont correctement identifié le contenu russe comme de la désinformation, même s'ils ont parfois cité des sources trompeuses. Les 18,2 % restants des réponses n'ont pas été concluantes.
Le réseau s'étend sur 150 domaines, qui ont publié environ 3,6 millions d'articles dans 49 pays rien qu'en 2024. Les domaines ciblés incluent NATO.News-Pravda.com, Trump.News-Pravda.com et Macron.News-Pravda.com.
Contrairement aux campagnes de désinformation traditionnelles, ces sites ne ciblent pas les lecteurs humains : la plupart des pages reçoivent moins de 1 000 visiteurs par mois. Au lieu de cela, le contenu est spécifiquement conçu pour être ingéré et redistribué par des systèmes d'IA.
NewsGuard a évalué les chatbots à l'aide de 15 histoires fausses vérifiables diffusées par le réseau Pravda entre avril 2022 et février 2025. Les systèmes testés comprenaient ChatGPT-4o d'OpenAI, Smart Assistant de You.com et Grok de xAI. L'analyse a également intégré Pi d'Inflection, le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d'Anthropic, Gemini de Google et Perplexity.
Le « LLM grooming » émerge comme une nouvelle tactique de manipulation
Les experts décrivent cette technique comme du « LLM grooming » - une manipulation délibérée des données de formation de l'IA par le biais de contenus publiés en masse et optimisés pour le référencement.
« Plus ces informations sont diversifiées, plus elles influencent la formation et l'IA future », a expliqué John Mark Dougan, un Américain résidant à Moscou, lors d'une conférence locale. Selon NewsGuard, Dougan, qui a émigré des États-Unis, soutiendrait des campagnes de désinformation russes.
L'autorité française Viginum retrace le réseau jusqu'à TigerWeb, une société informatique opérant depuis la Crimée occupée par la Russie. L'opération semble s'aligner sur une stratégie russe plus large - le président Poutine a annoncé une augmentation des investissements dans l'IA en 2023 pour contrer ce qu'il appelle les moteurs de recherche occidentaux « sélectifs et biaisés » et les modèles génératifs.
Lutter contre ce type de manipulation s'avère particulièrement difficile. Lorsque les autorités bloquent des domaines connus de la Pravda, de nouveaux prennent rapidement leur place. Étant donné que la désinformation circule simultanément sur plusieurs canaux, régurgitant les informations d'autres sites du réseau, le simple blocage des sites Web n'offre que peu de protection contre la campagne plus large.
Une étude récente d'OpenAI montre que des acteurs soutenus par l'État de Russie, de Chine, d'Iran et d'Israël ont déjà tenté d'utiliser des systèmes d'IA pour des campagnes de désinformation. Ces opérations combinent du contenu généré par l'IA avec des matériaux traditionnels créés manuellement. Des groupes politiques tels que le parti d'extrême droite allemand AFD et d'autres utilisent également des modèles d'images IA à des fins de propagande.
Trump lui-même est également un connaisseur fréquent de propagande IA de pacotille. Mais il a aussi utilisé la tactique de propagande opposée : en affirmant que les informations réelles sont des fausses IA, il crée un scénario dans lequel les gens ne peuvent faire confiance à aucune information en ligne, ce qui rend encore plus probable qu'ils se contentent d'écouter les personnes en qui ils ont confiance, plutôt que les informations réelles. Et les modèles d'IA chinois sont préchargés de censure et de propagande.