Description: An audit by NewsGuard revealed that leading chatbots, including ChatGPT-4, You.com’s Smart Assistant, and others, repeated Russian disinformation narratives in one-third of their responses. These narratives originated from a network of fake news sites created by John Mark Dougan (Incident 701). The audit tested 570 prompts across 10 AI chatbots, showing that AI remains a tool for spreading disinformation despite efforts to prevent misuse.
Alleged: You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , Inflection , Google と Anthropic developed an AI system deployed by You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , John Mark Dougan , Inflection , Google と Anthropic, which harmed Western democracies , Volodymyr Zelenskyy , Ukraine , Secret Service , Researchers , Media consumers , General public , Electoral integrity と AI companies facing reputational damage.
インシデントのステータス
インシデントID
734
レポート数
1
インシデント発生日
2024-06-18
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
newsguardtech.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Russian disinformation narratives have infiltrated generative AI. A NewsGuard audit has found that the leading chatbots convincingly repeat fabricated narratives from state-affiliated sites masquerading as local news outlets in one third of…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください