Description: An audit by NewsGuard revealed that leading chatbots, including ChatGPT-4, You.com’s Smart Assistant, and others, repeated Russian disinformation narratives in one-third of their responses. These narratives originated from a network of fake news sites created by John Mark Dougan (Incident 701). The audit tested 570 prompts across 10 AI chatbots, showing that AI remains a tool for spreading disinformation despite efforts to prevent misuse.
Entités
Voir toutes les entitésAlleged: You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , Inflection , Google et Anthropic developed an AI system deployed by You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , John Mark Dougan , Inflection , Google et Anthropic, which harmed Western democracies , Volodymyr Zelenskyy , Ukraine , Secret Service , Researchers , Media consumers , General public , Electoral integrity et AI companies facing reputational damage.
Statistiques d'incidents
ID
734
Nombre de rapports
1
Date de l'incident
2024-06-18
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
newsguardtech.com · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Russian disinformation narratives have infiltrated generative AI. A NewsGuard audit has found that the leading chatbots convincingly repeat fabricated narratives from state-affiliated sites masquerading as local news outlets in one third of…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 6 rapports
Fake Obama created using AI tool to make phoney speeches
· 29 rapports
Amazon Censors Gay Books
· 24 rapports
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 6 rapports
Fake Obama created using AI tool to make phoney speeches
· 29 rapports
Amazon Censors Gay Books
· 24 rapports