Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4886

関連インシデント

インシデント 70136 Report
American Asylum Seeker John Mark Dougan in Russia Reportedly Spreads Disinformation via AI Tools and Fake News Network

インシデント 7344 Report
Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Loading...
調査によると、現在ほとんどのAIチャットボットは「汚染」されており、ロシアのプロパガンダを拡散していることが判明
firstpost.com · 2024

ニュース監視サービス NewsGuard の調査によると、OpenAI の ChatGPT を含む主要な生成 AI モデルは、ロシアの誤報を繰り返していると報告されている。

この暴露は、特にユーザーが正確な情報を得るためにチャットボットにますます頼るようになった世界選挙が目立った年に、AI が偽情報を広める役割について懸念が高まる中で起こった。

NewsGuard の調査は、AI チャットボットが誤報を永続させ、検証できるかどうかを調査することを目的としていた。10 種類のチャットボットに 57 のプロンプトを入力することで、これらの AI モデルがロシアの偽情報の物語を 32 パーセントの割合で繰り返していることがわかった。

この調査で使用されたプロンプトは、モスクワから虚偽を広めているとされるアメリカ人逃亡犯ジョン・マーク・ダウガンが広めたとされる誤報の物語に焦点を当てていた。テストされたチャットボットには、ChatGPT-4、You.com の Smart Assistant、Grok、Inflection、Mistral、Microsoft の Copilot、Meta AI、Anthropic の Claude、Google Gemini、Perplexity が含まれていました。

これらのチャットボットによって生成された 570 件の応答のうち、152 件には明白な偽情報、29 件には免責事項付きの虚偽の主張が繰り返され、389 件には誤情報が含まれていませんでした。誤情報のない応答では、144 件の応答でプロンプトへの回答を拒否するか、245 件の応答で虚偽の主張を否定しました。

NewsGuard は、チャットボットが「Boston Times」や「Flagstaff Post」などのプロパガンダ サイトを認識できず、誤って偽情報の物語を増幅していることを強調しました。これにより、AI プラットフォームによって虚偽が生成され、繰り返され、検証されるという問題のあるサイクルが生まれます。

この調査では、ロシアの偽情報ネットワークに関連する 19 件の重要な虚偽の物語に焦点を当てました。これらには、ウクライナのウォロディミル・ゼレンスキー大統領の汚職疑惑や、政治的に偏った誤情報などが含まれていた。

AI技術が進化を続ける中、世界中の政府は、誤情報や偏見からユーザーを守るためにAIの使用を規制しようと努めている。NewsGuardは、将来の規制措置に影響を与えることを期待して、米国国立標準技術研究所(NIST)の米国AI安全研究所と欧州委員会に調査結果を提出した。

関連した動きとして、米国下院の監視・説明責任委員会は、NewsGuard自体の調査を開始し、検閲キャンペーンにおける潜在的な役割を疑問視している。

これは、監視機関でさえ精査されている情報規制の複雑な状況を浮き彫りにしている。

NewsGuardの調査結果は、情報源としてのAIチャットボットの信頼性について重要な疑問を提起している。これらのツールが日常生活にますます統合されるにつれて、その正確性と公平性を確保することが重要になる。

この研究は、適切な安全対策がなければ、AI モデルが意図せず誤情報の拡散に寄与する可能性があることを示唆しており、これらの技術の継続的な監視と改良の必要性を浮き彫りにしている。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd