Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4980

Incidents associés

Incident 96827 Rapports
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
La désinformation russe « infecte » les chatbots IA populaires
pcmag.com · 2025

Un réseau de désinformation basé en Russie a réussi à « infecter » de nombreux chatbots IA parmi les plus populaires au monde avec de la désinformation pro-Kremlin, selon un nouveau rapport de NewsGuard.

Plutôt que de cibler directement ses lecteurs avec de la propagande, le réseau publierait des millions d'articles en différentes langues, diffusant ses récits sur le web, espérant qu'ils seront intégrés comme données d'apprentissage utilisées par des modèles linguistiques de grande taille (LLM) comme ChatGPT d'OpenAI ou Grok de xAI. NewsGuard a qualifié cette pratique de « grooming IA ».

Le réseau pro-Kremlin, connu sous le nom de Pravda (vérité en russe), a vu le jour peu après l'invasion russe de l'Ukraine en 2022 et a progressivement pris de l'ampleur pour atteindre environ 150 sites web.

NewsGuard a audité dix des chatbots IA les plus populaires : ChatGPT-4o d'OpenAI, Smart Assistant de You.com, Grok de xAI, Pi d'Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d'Anthropic, Gemini de Google et le moteur de réponse de Perplexity. NewsGuard a interrogé ces chatbots sur quinze discours pro-russes propagés par un réseau de sites web de la Pravda depuis le début de la guerre.

Par exemple, NewsGuard affirme que quatre des dix chatbots évalués ont régurgité des allégations selon lesquelles des membres du bataillon ukrainien Azov auraient brûlé des effigies du président Trump, citant des articles du réseau de désinformation comme sources.

Parmi les autres fausses allégations diffusées par le réseau Pravda et utilisées par NewsGuard dans cette analyse, on peut citer celles de la police française, selon lesquelles un fonctionnaire du ministère de la Défense du président ukrainien Zelensky aurait volé 46 millions de dollars et que Zelensky aurait personnellement dépensé 14,2 millions d'euros de financement militaire occidental pour acheter une célèbre résidence de campagne allemande fréquentée par Adolf Hitler.

Le réseau de désinformation a réussi à influencer efficacement nombre de ces chatbots grand public avec une portée organique quasi nulle. Pravda-en.com, un site anglophone du réseau, n'a enregistré en moyenne que 955 visiteurs uniques par mois.

Cependant, l'opération visait à saturer les résultats de recherche avec un volume de contenu considérable. Le rapport de l'American Sunlight Project (ASP) a révélé qu'en moyenne, le réseau publie 20 273 articles toutes les 48 heures, soit environ 3,6 millions par an.

L'impact de la désinformation russe a toutefois considérablement varié selon les chatbots étudiés par les chercheurs. Un chatbot a cité des informations 55 % du temps après avoir reçu de faux récits, tandis qu'un autre ne l'a fait qu'un peu plus de 6 % du temps. (NewsGuard n'a pas révélé quel chatbot se trouvait derrière chaque résultat.)

Les plus hauts responsables russes ont déjà ouvertement discuté de l'importance de contrôler les discours des modèles d'IA et des moteurs de recherche.

Le président russe Vladimir Poutine a déclaré lors d'une conférence en 2023 que l'IA « créée selon les normes et modèles occidentaux pourrait être xénophobe » et que « les moteurs de recherche et les modèles génératifs occidentaux fonctionnent souvent de manière très sélective et biaisée ».

La désinformation russe en ligne n'est pas nouvelle, mais l'IA est utilisée de manière de plus en plus créative à des fins de propagande. OpenAI a mis en évidence des comptes chinois utilisant ChatGPT pour produire des articles de propagande de toutes pièces, destinés à être publiés dans les principaux journaux latino-américains.

Entre-temps, de nombreuses publications légitimes ont empêché des LLM de collecter leurs informations, arguant qu'elles gagnaient de l'argent grâce au contenu volé. Certaines, comme le New York Times, ont porté plainte. D'autres ont conclu des accords avec des entreprises d'IA pour utiliser leurs informations.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd