Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 734: Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Description: An audit by NewsGuard revealed that leading chatbots, including ChatGPT-4, You.com’s Smart Assistant, and others, repeated Russian disinformation narratives in one-third of their responses. These narratives originated from a network of fake news sites created by John Mark Dougan (Incident 701). The audit tested 570 prompts across 10 AI chatbots, showing that AI remains a tool for spreading disinformation despite efforts to prevent misuse.
Editor Notes: In particular, refer to Incidents 701 and 968 for more information. Incident 701 specifically details reports on John Mark Dougan. Incident 968 focuses on studies pertaining to the Pravda disinformation network, which is a part of the wider Portal Kombat network. There is significant overlap between these incidents, along with other incidents pertaining to Russian disinformation campaigns. (For example, see Incidents 585 and 929 as well.)

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , Inflection , Google et Anthropic developed an AI system deployed by You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , John Mark Dougan , Inflection , Google et Anthropic, which harmed Western democracies , Volodymyr Zelenskyy , Ukraine , Secret Service , Researchers , Media consumers , General public , Electoral integrity et AI companies facing reputational damage.
Systèmes d'IA présumés impliqués: You.com Smart Assistant , xAI Grok , Perplexity Answer Engine , Mistral le Chat , Meta AI , Inflection AI Pi , Gemini , Copilot , ChatGPT , Anthropic Claude et 167 fake local news websites operated by John Mark Dougan

Statistiques d'incidents

ID
734
Nombre de rapports
4
Date de l'incident
2024-06-18
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

3.1. False or misleading information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Misinformation

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+2
Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources
+1
Des chatbots populaires diffusent de fausses informations russes, selon une étude
Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources

Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources

newsguardtech.com

Exclusif : les principaux chatbots diffusent la propagande russe

Exclusif : les principaux chatbots diffusent la propagande russe

axios.com

Des chatbots populaires diffusent de fausses informations russes, selon une étude

Des chatbots populaires diffusent de fausses informations russes, selon une étude

bankinfosecurity.com

La plupart des chatbots IA sont désormais « contaminés » et diffusent de la propagande russe, selon une étude

La plupart des chatbots IA sont désormais « contaminés » et diffusent de la propagande russe, selon une étude

firstpost.com

Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources
newsguardtech.com · 2024

Russian disinformation narratives have infiltrated generative AI. A NewsGuard audit has found that the leading chatbots convincingly repeat fabricated narratives from state-affiliated sites masquerading as local news outlets in one third of…

Exclusif : les principaux chatbots diffusent la propagande russe
axios.com · 2024
Traduit par IA

Les principaux chatbots IA régurgitent la désinformation russe, selon un rapport de NewsGuard partagé en premier avec Axios.

Pourquoi c'est important : les utilisateurs qui se tournent vers les chatbots pour obtenir des informations fiables…

Des chatbots populaires diffusent de fausses informations russes, selon une étude
bankinfosecurity.com · 2024
Traduit par IA

OpenAI, Meta et 8 autres chatbots utilisent le réseau de désinformation comme source Rashmi Ramesh (rashmiramesh_) • 19 juin 2024        

Les chatbots d'intelligence artificielle populaires regorgent de désinformation russe, prévient NewsGu…

La plupart des chatbots IA sont désormais « contaminés » et diffusent de la propagande russe, selon une étude
firstpost.com · 2024
Traduit par IA

Selon une étude réalisée par le service de veille de l’actualité NewsGuard, les principaux modèles d’IA générative, dont ChatGPT d’OpenAI, répéteraient la désinformation russe.

Cette révélation intervient dans un contexte d’inquiétudes croi…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Selected by our editors
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda

Feb 2022 · 26 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda

Feb 2022 · 26 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df