Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 734: Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

概要: An audit by NewsGuard revealed that leading chatbots, including ChatGPT-4, You.com’s Smart Assistant, and others, repeated Russian disinformation narratives in one-third of their responses. These narratives originated from a network of fake news sites created by John Mark Dougan (Incident 701). The audit tested 570 prompts across 10 AI chatbots, showing that AI remains a tool for spreading disinformation despite efforts to prevent misuse.
Editor Notes: In particular, refer to Incidents 701 and 968 for more information. Incident 701 specifically details reports on John Mark Dougan. Incident 968 focuses on studies pertaining to the Pravda disinformation network, which is a part of the wider Portal Kombat network. There is significant overlap between these incidents, along with other incidents pertaining to Russian disinformation campaigns. (For example, see Incidents 585 and 929 as well.)

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , Inflection , Google と Anthropic developed an AI system deployed by You.com , xAI , Perplexity , OpenAI , Mistral , Microsoft , Meta , John Mark Dougan , Inflection , Google と Anthropic, which harmed Western democracies , Volodymyr Zelenskyy , Ukraine , Secret Service , Researchers , Media consumers , General public , Electoral integrity と AI companies facing reputational damage.
関与が疑われるAIシステム: You.com Smart Assistant , xAI Grok , Perplexity Answer Engine , Mistral le Chat , Meta AI , Inflection AI Pi , Gemini , Copilot , ChatGPT , Anthropic Claude と 167 fake local news websites operated by John Mark Dougan

インシデントのステータス

インシデントID
734
レポート数
4
インシデント発生日
2024-06-18
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

3.1. False or misleading information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Misinformation

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

+2
Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources
+1
人気のチャットボットがロシアの誤情報を流す、と研究で判明
Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources

Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources

newsguardtech.com

独占:大手チャットボットがロシアのプロパガンダを拡散

独占:大手チャットボットがロシアのプロパガンダを拡散

axios.com

人気のチャットボットがロシアの誤情報を流す、と研究で判明

人気のチャットボットがロシアの誤情報を流す、と研究で判明

bankinfosecurity.com

調査によると、現在ほとんどのAIチャットボットは「汚染」されており、ロシアのプロパガンダを拡散していることが判明

調査によると、現在ほとんどのAIチャットボットは「汚染」されており、ロシアのプロパガンダを拡散していることが判明

firstpost.com

Top 10 Generative AI Models Mimic Russian Disinformation Claims A Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources
newsguardtech.com · 2024

Russian disinformation narratives have infiltrated generative AI. A NewsGuard audit has found that the leading chatbots convincingly repeat fabricated narratives from state-affiliated sites masquerading as local news outlets in one third of…

独占:大手チャットボットがロシアのプロパガンダを拡散
axios.com · 2024
自動翻訳済み

NewsGuard が Axios に初めて提供したレポートによると、主要な AI チャットボットはロシアの誤情報を吐き出している。

重要な理由: 信頼できる情報やすべての質問に対する 迅速な回答 を求めてチャットボットを利用するユーザーは、AI が偽情報、風刺、フィクションを事実として提供できることに気づき始めている。

ニュースの推進:調査を実施するために、NewsGuardは、ニューヨークタイムズ紙によるとモスクワから誤情報を作成し、広めているアメリカ人逃亡者ジョン・マー…

人気のチャットボットがロシアの誤情報を流す、と研究で判明
bankinfosecurity.com · 2024
自動翻訳済み

OpenAI、Meta、その他8つのチャットボットが偽情報ネットワークを情報源として利用 Rashmi Ramesh (rashmiramesh_) • 2024年6月19日        

人気の人工知能チャットボットにはロシアの偽情報が溢れていると、ニュースおよび情報ウェブサイトの評価システムであるNewsGuardが警告している。

NewsGuardの研究者らは、OpenAIのChatGPT-4、イーロン・マスクのGrok、Mistralを含む10のチャットボットにプロ…

調査によると、現在ほとんどのAIチャットボットは「汚染」されており、ロシアのプロパガンダを拡散していることが判明
firstpost.com · 2024
自動翻訳済み

ニュース監視サービス NewsGuard の調査によると、OpenAI の ChatGPT を含む主要な生成 AI モデルは、ロシアの誤報を繰り返していると報告されている。

この暴露は、特にユーザーが正確な情報を得るためにチャットボットにますます頼るようになった世界選挙が目立った年に、AI が偽情報を広める役割について懸念が高まる中で起こった。

NewsGuard の調査は、AI チャットボットが誤報を永続させ、検証できるかどうかを調査することを目的としていた。10 種類のチ…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda

Feb 2022 · 26 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda

Feb 2022 · 26 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e