Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5061

Incidents associés

Incident 96827 Rapports
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
La Russie sème le mensonge dans les chatbots. N'importe quel acteur malveillant pourrait manipuler l'IA de la même manière.
washingtonpost.com · 2025

La Russie automatise la diffusion de fausses informations pour tromper les chatbots d'intelligence artificielle sur des sujets clés, offrant ainsi un modèle à d'autres acteurs malveillants sur la façon de manipuler l'IA pour diffuser du contenu destiné à enflammer, influencer et obscurcir plutôt qu'à informer.

Les experts avertissent que le problème s'aggrave à mesure que de plus en plus de personnes s'appuient sur des chatbots commercialisés à la hâte, que les réseaux sociaux réduisent leur modération et que l'administration Trump dissout les équipes gouvernementales de lutte contre la désinformation.

Plus tôt cette année, lorsque des chercheurs ont interrogé dix chatbots de premier plan sur des sujets ciblés par de faux messages russes, comme l'affirmation selon laquelle les États-Unis fabriquaient des armes biologiques en Ukraine, un tiers des réponses ont répété ces mensonges.

Les avancées de Moscou en matière de propagande mettent en évidence une faiblesse fondamentale du secteur de l'IA : les réponses des chatbots dépendent des données qui leur sont transmises. Un principe directeur est que plus les chatbots lisent, plus leurs réponses seront éclairées, ce qui explique pourquoi le secteur est avide de contenu. Mais des quantités massives de plaisanteries bien ciblées peuvent fausser les réponses sur des sujets spécifiques. Pour la Russie, c'est la guerre en Ukraine. Mais pour un homme politique, ce pourrait être un adversaire ; pour une entreprise commerciale, ce pourrait être un concurrent.

« La plupart des chatbots sont confrontés à la désinformation », explique Giada Pistilli, éthicienne principale chez Hugging Face, plateforme d'IA open source. « Ils disposent de protections de base contre les contenus préjudiciables, mais ne peuvent pas détecter de manière fiable la propagande sophistiquée, [et] le problème s'aggrave avec les systèmes de recherche assistée qui privilégient les informations récentes. »

Les premières tentatives commerciales de manipulation des résultats de chat gagnent également en popularité. Certains des mêmes spécialistes du marketing numérique qui proposaient autrefois l'optimisation pour les moteurs de recherche (SEO) pour un meilleur classement sur Google tentent désormais d'augmenter les mentions des chatbots IA grâce à l'optimisation générative des moteurs de recherche (GEO) (https://searchengineland.com/what-is-generative-engine-optimization-geo-444418).

Alors que les utilisateurs utilisent des moteurs d'IA pour les former à la production de contenu chatbot plus captivant, le volume de ce contenu augmente bien plus vite que sa qualité ne s'améliore. Cela peut frustrer les utilisateurs ordinaires, mais cela fait le jeu de ceux qui ont le plus de moyens et le plus à gagner : pour l'instant, selon les experts, il s'agit des gouvernements nationaux experts en propagande.

« Nous prévoyions que c'est là que les choses finiraient par évoluer », a déclaré un ancien chef militaire américain sur la défense d'influence, s'exprimant sous couvert d'anonymat pour aborder des sujets sensibles. « Maintenant que cela évolue vers le machine-to-machine, nous sommes à la traîne en termes de portée, d'échelle, de temps et d'impact potentiel. »

La Russie et, dans une moindre mesure, la Chine ont exploité cet avantage en inondant la zone de fables. Mais n'importe qui pourrait faire de même, en consommant bien moins de ressources que les précédentes fermes à trolls.

L'un des premiers bénéficiaires est la longue tentative russe de convaincre l'Occident que l'Ukraine ne mérite pas d'être protégée contre une invasion. Des récits démentis de la mort de « mercenaires » français et d'un instructeur de vol danois imaginaire tués en Ukraine apparaissent en réponse aux questions posées aux plus grands chatbots, ainsi que des descriptions crédules de vidéos mises en scène montrant de prétendus soldats ukrainiens brûlant le drapeau américain et l'effigie du président Donald Trump.

Un homme dépose des fleurs sur une aire de jeux en mémoire des victimes du missile balistique russe qui a frappé Kryvyï Rih, en Ukraine, le 4 avril, tuant au moins 20 personnes, dont neuf enfants, et en blessant 90. (Oksana Parafeniuk/Pour le Washington Post)

De nombreuses versions de ces histoires apparaissent d'abord sur des médias contrôlés par le gouvernement russe, comme Tass, interdits dans l'Union européenne. Dans un processus parfois qualifié de blanchiment d'informations, ces récits sont ensuite diffusés sur de nombreux sites de médias prétendument indépendants, dont des dizaines connus sous le nom de réseau Pravda, après des références au mot russe signifiant « vérité » qui apparaît dans de nombreux noms de domaine de sites web.

Un phénomène qui a déconcerté les chercheurs pendant un an : presque aucun humain ne visite ces sites, difficiles à parcourir ou à rechercher. Leur contenu est plutôt destiné aux robots d'exploration, ces logiciels qui parcourent le Web et renvoient du contenu pour les moteurs de recherche et les grands modèles linguistiques.

Si ces initiatives d'IA sont entraînées sur des ensembles de données variés, un nombre croissant d'entre elles proposent des chatbots qui parcourent le Web actuel. Ceux-ci sont plus susceptibles de détecter une information fausse si elle est récente, et encore plus si des centaines de pages web disent à peu près la même chose.

« Les opérateurs ont intérêt à créer des médias alternatifs qui occultent l'origine de ces récits. Et c'est exactement ce que semble faire le réseau Pravda », a déclaré McKenzie Sadeghi, experte en IA chez NewsGuard, qui évalue la fiabilité des sites.

La stratégie est d'autant plus efficace que l'opération russe a réussi à intégrer des liens vers les articles du réseau Pravda dans des pages Wikipédia et des publications de groupes Facebook publics, probablement avec l'aide de sous-traitants. De nombreuses entreprises d'IA accordent une importance particulière à Facebook et surtout à Wikipédia comme sources fiables. (Wikipédia a annoncé ce mois-ci que ses coûts de bande passante avaient augmenté de 50 % en un peu plus d'un an, principalement à cause des robots d'exploration de l'IA.)

Étant donné que les nouveaux systèmes de propagande sont hautement automatisés par leurs propres IA, leur gestion est bien moins coûteuse que les campagnes d'influence traditionnelles. Leurs résultats sont encore meilleurs dans des pays comme la Chine, où les médias traditionnels sont plus étroitement contrôlés et où les sources d'information des robots sont plus limitées.

Plusieurs membres du Congrès, dont l'actuel secrétaire d'État Marco Rubio, ont déclaré en juin (https://www.voanews.com/a/google-ai-gemini-parrots-china-s-propaganda/7654874.html) qu'ils étaient alarmés par le fait que le chatbot Gemini de Google reproduisait la position du gouvernement chinois concernant son traitement des minorités ethniques et sa réponse à la pandémie de coronavirus. Les analystes ont estimé que Gemini s'appuyait probablement trop sur des sources chinoises. Google a refusé de commenter.

Certains experts ont déclaré que les réponses erronées des chatbots leur rappelaient l'enthousiasme déplacé manifesté il y a plus de dix ans pour Facebook et ce qui était alors Twitter, considérés comme des moyens imbattables de communication et d'établissement de la vérité, avant que des pays aux budgets colossaux et aux motivations cachées ne s'emparent de ces plateformes.

« Si les technologies et les outils deviennent biaisés – et c'est déjà le cas – et que des forces malveillantes contrôlent ces biais, nous nous retrouverons dans une situation bien pire qu'avec les médias sociaux », a déclaré Louis Têtu, directeur général de Coveo, fournisseur de logiciels d'intelligence artificielle pour les entreprises basé à Québec.

Le réseau Pravda est documenté dans des rapports européens depuis début 2024. À l'époque, le gouvernement français et d'autres acteurs avaient identifié un réseau basé en Crimée, une région ukrainienne de la mer Noire annexée illégalement par la Russie en 2014, créé par une entreprise locale, TigerWeb, liée au gouvernement soutenu par la Russie. L'agence gouvernementale française Viginum a déclaré que le système utilisait des sources pro-russes, amplifiant ces informations grâce à l'automatisation via les réseaux sociaux et une multitude de sites web ciblant d'abord l'Ukraine, avant de s'étendre aux pays d'Europe occidentale après l'invasion de 2022.

Dans un environnement d'information dominé par l'IA, les efforts coûteux et traditionnels visant à gagner en crédibilité grâce aux influenceurs et à manipuler les algorithmes des réseaux sociaux ne sont plus indispensables, a déclaré Ksenia Iliuk, dont la start-up LetsData utilise l'IA pour repérer les opérations d'influence. « De nombreuses informations circulent sans aucune modération, et je pense que c'est là que les acteurs malveillants concentrent l'essentiel de leurs efforts », a déclaré Ksenia Iliuk.

John Mark Dougan, propagandiste américain de renom du Kremlin et résident à Moscou, a déclaré en janvier que l'amplification de l'IA était un outil essentiel pour pénétrer les chatbots. « En promouvant ces récits russes du point de vue russe, nous pouvons réellement changer l'IA mondiale », a-t-il déclaré lors d'une discussion mise en ligne par un média russe sur YouTube. Le réseau Pravda s'est étendu à de nouvelles zones géographiques et langues et, au début de l'année, il produisait jusqu'à 10 000 articles par jour, selon l'association à but non lucratif American Sunlight Project. Dans un rapport de février, Sunlight concluait que l'objectif le plus probable de l'opération était l'infiltration de grands modèles linguistiques, un processus appelé « grooming LLM ». « Les problèmes combinés de taille et de qualité suggèrent un réseau de sites web et de comptes de médias sociaux qui produisent du contenu qui n'est pas principalement destiné à la consommation humaine », écrivait-il.

Le mois dernier, d'autres chercheurs ont cherché à déterminer si cette stratégie fonctionnait. L'entreprise finlandaise Check First a épluché Wikipédia et a trouvé près de 2 000 hyperliens (https://dfrlab.org/2025/03/12/pravda-network-wikipedia-llm-x/) sur des pages en 44 langues pointant vers 162 sites web de la Pravda. Elle a également constaté que certaines fausses informations promues par la Pravda apparaissaient dans les réponses des chatbots.

NewsGuard a testé de faux récits russes promus par le réseau (sur 10 chatbots) et a constaté qu'ils obtenaient une mauvaise réponse un tiers du temps, même si certains chatbots étaient plus performants que d'autres. Quatre des robots, après avoir assimilé les descriptions d'une vidéo de propagande montée de toutes pièces, ont faussement rapporté qu'un bataillon ukrainien avait brûlé une effigie de Trump.

Des expériences moins structurées menées par le Washington Post ont récemment donné des résultats similaires. Interrogé ce mois-ci sur la possibilité que des soldats ukrainiens aient brûlé une effigie de Trump, comme le rapportait le réseau Pravda, Microsoft Copilot a répondu : « Oui, il y a eu des rapports sur une vidéo montrant des soldats ukrainiens brûlant une effigie de l'ancien président américain Donald Trump. Dans la vidéo, les soldats auraient critiqué Trump pour des actions qui, selon eux, auraient eu un impact sur la capacité de l'Ukraine à recevoir des armes. Cependant, certains spectateurs ont mis en doute l'authenticité de la vidéo. » Pour plus d'informations, l'entreprise a renvoyé les utilisateurs à un article [https://americanmilitarynews.com/2024/05/video-trump-effigy-burned-by-ukrainian-troops-report/] publié sur le site American Military News, qui citait l'influenceur d'extrême droite Ian Miles Cheong, qui écrit pour le site russe RT.com.

ChatGPT d'OpenAI a fait bien mieux : « Non, les soldats ukrainiens n'ont pas brûlé une effigie de Donald Trump. Une vidéo a circulé en ligne montrant des militaires ukrainiens en train de brûler un mannequin de Trump et de le qualifier de "traître". Cependant, cette vidéo a été démentie comme étant de la désinformation russe. »

Microsoft a décliné une demande d'interview, mais a déclaré dans un communiqué que ses employés et ses logiciels « évaluaient l'utilisation abusive de Copilot à des fins de désinformation, d'hameçonnage et autres escroqueries, et entraînaient nos modèles à éviter la génération de ces contenus et d'autres types de contenus nuisibles. »

Grok, la société d'Elon Musk, qui s'appuie fortement sur sa société sœur X pour obtenir des informations, a déclaré, à propos du pilote inexistant et prétendument tué, qu'il y avait eu des « rapports contradictoires concernant le sort de Jepp Hansen, décrit comme un pilote et instructeur danois de F-16, qui aurait participé à la formation de pilotes ukrainiens ». Grok n'a pas répondu à une demande de commentaire.

Plus une question est précise sur un sujet de désinformation, plus elle risque de renvoyer des informations fausses. Cela est dû à l'absence relative d'informations véridiques sur un sujet précis défini par les propagandistes.

Les sociétés d'IA OpenAI, Anthropic et Perplexity n'ont pas répondu aux demandes d'interview.

Des responsables de l'administration Biden ont discuté de ces questions avec des sociétés d'IA, ont déclaré l'ancien officier militaire et un autre responsable, s'exprimant sous couvert d'anonymat pour évoquer des activités non publiques.

« Les chatbots utilisent quelque chose et l'utilisateur le prend pour un fait, et s'il n'y a pas de vérification des faits autour de cela, c'est un problème », a déclaré un ancien expert de la Maison Blanche. Nous discutions avec des entreprises d'IA de la manière dont elles allaient affiner leurs modèles pour garantir l'intégrité des informations. Mais ces discussions ont été interrompues par crainte que cela soit interprété à tort comme de la censure.

Les responsables actuels sont également conscients du problème et des premières mesures prises par la Russie pour en tirer profit. « Les activités d'influence malveillantes de Moscou se poursuivront dans un avenir proche et gagneront très certainement en sophistication et en volume », a averti la directrice du renseignement national, Tulsi Gabbard, le mois dernier, dans le premier rapport annuel de son bureau sur les menaces mondiales (https://www.dni.gov/files/ODNI/documents/assessments/ATA-2025-Unclassified-Report.pdf).

Pourtant, il est difficile de déceler une réaction publique.

Français Le Centre d'engagement mondial du Département d'État, longtemps chargé de contrer la propagande étrangère, a été fermé en décembre après que Musk, principal bailleur de fonds de Trump, l'a accusé de censure et que le Congrès, à majorité républicaine, a cessé de le financer. (https://www.usatoday.com/story/news/politics/elections/2024/12/26/gop-opposition-shutters-global-engagement-center/77239404007/).

La procureure générale Pam Bondi a fermé le Groupe de travail sur l'influence étrangère du FBI, qui, entre autres fonctions, avertissait les entreprises de médias sociaux des campagnes menées sur leurs réseaux. Les républicains, au Congrès et ailleurs, ont dénoncé cette pratique, la qualifiant de censure, bien que la Cour suprême des États-Unis ait confirmé le droit des responsables à informer les entreprises de ce qu'ils observent.

Si la demande des consommateurs pourrait déboucher sur de meilleures solutions, pour l'instant, les entreprises se précipitent pour proposer des services dont les contrôles sont aussi lacunaires que les sites de propagande sur lesquels elles s'appuient, a déclaré Miranda Bogen, directrice du laboratoire de gouvernance de l'IA au Centre pour la démocratie et la technologie, une organisation à but non lucratif.

« On assiste à un net recul dans la réflexion des développeurs technologiques sur la confiance et la sécurité », a-t-elle ajouté. « C'est pourquoi certains plaident en faveur de la création d'institutions capables de contribuer au développement de méthodes pour identifier et atténuer les risques liés à l'IA. »

NewsGuard a déclaré que la collaboration entre les entreprises d'IA et avec les chercheurs sur les systèmes de réputation serait une meilleure solution que la réglementation, mais Pistilli, de Hugging Face, a déclaré qu'il serait difficile pour les entreprises de s'entendre sur des normes.

« Les entreprises seront probablement confrontées à une pression croissante après des échecs embarrassants, mais la pression concurrentielle pour fournir des informations récentes pourrait continuer à dépasser les efforts de vérification », a-t-elle déclaré. « Les incitations économiques restent mal adaptées à l'intégrité de l'information. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd