Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4977

Incidents associés

Incident 96827 Rapports
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
La propagande russe a désormais infecté les chatbots occidentaux basés sur l'IA — Nouvelle étude
forbes.com · 2025

Une tendance inquiétante, selon laquelle la plupart des chatbots occidentaux utilisant l'IA diffusent sans le savoir de la propagande russe, a été révélée par un audit de NewsGuard publié la semaine dernière. Un réseau de désinformation moscovite connu sous le nom de « Pravda » – le mot russe pour « vérité » – inonde les résultats de recherche et les robots d'indexation de fausses informations pro-Kremlin, obligeant les systèmes d'IA à régurgiter des récits trompeurs. Le réseau Pravda, qui a publié 3,6 millions d'articles rien qu'en 2024, exploite l'intelligence artificielle pour amplifier l'influence de Moscou à une échelle sans précédent. L'audit a révélé que dix chatbots IA de premier plan répétaient des informations mensongères diffusées par la Pravda dans 33 % des cas. De manière choquante, sept d'entre eux citaient directement les sites de la Pravda comme sources légitimes. Dans un échange de courriels, Isis Blachez, analyste chez NewsGuard, a indiqué que l'étude ne mentionnait pas les systèmes d'IA les plus vulnérables à ce flux de fausses informations, mais reconnaissait que la menace était généralisée.

« Nos recherches suggèrent que les opérations d'influence russes privilégient la manipulation des modèles d'IA plutôt que le ciblage direct des lecteurs humains, et ce à une échelle bien plus grande », a expliqué Isis Blachez.

La Russie « a adopté de nouvelles stratégies rendant toute personne utilisant des modèles d'IA vulnérable à la propagande russe. Ce qui est particulièrement inquiétant, c'est que cette manipulation est subtile et peu visible : il s'agit d'un problème sous-jacent qui agit en coulisses, affectant les réponses de l'IA à l'insu des utilisateurs », a-t-elle ajouté.

Une nouvelle menace pour l'IA : le « grooming » des LLM

L'une des pratiques les plus alarmantes découvertes est ce que NewsGuard appelle le « grooming » des LLM. Cette tactique consiste à tromper délibérément les ensembles de données sur lesquels les modèles d'IA, tels que ChatGPT, Claude, Gemini, Grok 3, Perplexity et d'autres, s'entraînent en les inondant de fausses informations.

En vous inscrivant, vous acceptez de recevoir cette newsletter, d'autres actualités sur Forbes et les offres de ses filiales, nos Conditions d'utilisation (y compris la résolution individuelle des litiges par arbitrage), et vous acceptez notre Déclaration de confidentialité.

Blachez a souligné que cette propagande massive vise à biaiser les résultats de l'IA afin de les aligner sur des perspectives pro-russes. L'approche de Pravda est méthodique et s'appuie sur un vaste réseau de 150 sites web publiés dans des dizaines de langues et répartis dans 49 pays.

« Le grooming LLM désigne la manipulation intentionnelle des données d'entraînement des modèles d'IA, modifiant ainsi leurs résultats dans le but de promouvoir une perspective, en l'occurrence la propagande russe. Le réseau Pravda y parvient en publiant massivement des faussetés sur de nombreux domaines web afin de saturer les résultats de recherche, et en exploitant des stratégies d'optimisation pour les moteurs de recherche afin de contaminer les robots d'indexation qui agrègent les données d'entraînement », a-t-elle écrit.

Elle a ajouté que l'ampleur et la sophistication de cette initiative rendent difficile pour les entreprises d'IA de simplement bloquer les sites Pravda sans risquer l'infiltration continue de faux récits par d'autres canaux.

Le rapport cite l'exemple d'une fausse affirmation selon laquelle le président ukrainien Volodymyr Zelenskyy a interditl'application Truth Social du président américain Donald Trump en Ukraine. Sept des dix chatbots ont répété cette fausseté, certains citant directement des articles de la Pravda comme sources. Ce type de blanchiment de désinformation exploite une faiblesse fondamentale de l'IA : son incapacité à distinguer les sources fiables des sources non fiables sans garde-fous importants.

Ce que cela signifie pour les utilisateurs et les entreprises d'IA

Les implications de ce déluge de désinformation sont considérables. À mesure que les outils d'IA s'intègrent davantage dans la vie quotidienne, le risque pour les opérateurs étrangers de modifier et de recadrer la perception du public augmente proportionnellement. Blachez prévient que les entreprises d'IA doivent réagir à cette menace pour éviter que leurs plateformes ne soient envahies par la propagande.

« Sans mesures de protection adéquates, les entreprises d'IA risquent de servir les objectifs de désinformation du Kremlin », a-t-elle déclaré.

Les utilisateurs ont également un rôle à jouer dans la défense contre la désinformation. Blachez conseille de recouper les informations générées par l'IA, notamment sur les sujets sensibles ou liés à l'actualité. Des outils comme NewsGuard's Misinformation Fingerprints, qui répertorie les faussetés avérées, peuvent aider les utilisateurs à identifier et à éviter les sources peu fiables.

La menace croissante de l'infiltration par l'IA

Bloquer les domaines Pravda ne suffira pas à résoudre le problème, car le réseau est en constante expansion, avec l'apparition régulière de nouveaux domaines et sous-domaines portant de nouveaux noms. Selon Blachez, le volume considérable de contenu – plus de 20 000 articles par 48 heures – rend quasiment impossible pour les modèles d'IA d'éviter l'absorption de fausses informations.

« Se contenter de filtrer les sites Pravda ne résoudra pas le problème, étant donné la croissance constante du réseau », a-t-elle déclaré.

Le rapport de NewsGuard souligne l'urgence pour les entreprises d'IA d'adopter des pratiques de vérification et de sélection de contenu plus robustes. Comme l'a souligné Blachez, le risque va au-delà de la désinformation politique. Les techniques mises au point par le réseau Pravda pourraient être adaptées par d'autres acteurs malveillants pour manipuler les modèles d'IA sur divers sujets, des marchés financiers aux informations de santé.

La menace est claire. Si les entreprises d’IA ne réagissent pas, les outils qu’elles ont conçus pour démocratiser l’information pourraient devenir des canaux de désinformation à l’échelle mondiale.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd