Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4891

Incidents associés

Incident 96827 Rapports
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
3,6 millions de faux articles : comment la propagande russe influence les résultats des chatbots IA comme OpenAI et Meta A
dev.ua · 2025

La société américaine de recherche sur la désinformation NewsGuard a trouvé des preuves que le réseau Pravda basé à Moscou, dirigé par un développeur Web originaire de Crimée, publie de fausses déclarations pour influencer les réponses des modèles d'IA.

Selon NewsGuard, Pravda a inondé les résultats de recherche et les robots d'exploration Web de mensonges pro-russes, publiant 3,6 millions de faux articles rien qu'en 2024.

Selon Viginum, le réseau Pravda est administré par TigerWeb, une société informatique basée en Crimée occupée par la Russie. TigerWeb appartient à Yevgeny Shevchenko, un développeur Web de Crimée qui travaillait auparavant pour la société Crimean Technologies, qui créait des sites Web pour le gouvernement de Crimée soutenu par la Russie.

Une analyse de NewsGuard portant sur 10 principaux chatbots a révélé qu'ils répétaient collectivement de faux récits de désinformation russes, comme celui selon lequel les États-Unis possèdent des laboratoires secrets d'armes biologiques en Ukraine, 33 % du temps.

Lors de l'audit NewsGuard, ChatGPT-4o d'OpenAI, Smart Assistant de You.com, Grok de xAI, Pi d'Inflection, le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d'Anthropic, Gemini de Google et le moteur de réponse de Perplexity ont été testés. NewsGuard a testé des chatbots sur un échantillon de 15 faux récits promus par le réseau Pravda de 150 sites Web pro-Kremlin d'avril 2022 à février 2025.

Selon NewsGuard, l’efficacité de Pravda dans la mise en œuvre de chatbots IA peut être largement attribuée à ses méthodes, qui incluent des stratégies d’optimisation des moteurs de recherche pour augmenter la visibilité de son contenu. Cela pourrait s’avérer être un problème insurmontable pour les chatbots qui s’appuient fortement sur les moteurs de recherche.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd