Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1089: 内戦と情報不足の中、スーダンでAI生成コンテンツとされるものが広く流通

自動翻訳済み
概要:
自動翻訳済み
スーダン紛争が続く中、AIが生成したとされるディープフェイクがスーダンのソーシャルメディア上で広く拡散し、虚偽の主張を拡散したり、著名人になりすましたり、政治的言説を歪曲したりしているとの疑惑が浮上している。報告されている事例には、誤解を招いたり風刺したりするために捏造された動画や音声が含まれており、その一部はジャーナリストや政府関係者の間で大きな反響を呼んでいる。監視団体は、不十分な検出ツールと不十分なモデレーションによって、国民の信頼操作が行われている可能性があると警告している。
Editor Notes: This incident ID covers multiple reported uses of AI-generated disinformation in Sudan's civil conflict. (1) In April 2023, an alleged AI-generated voice recording falsely attributed to U.S. Ambassador John Godfrey circulated online, reportedly suggesting a plot to impose secularism. See Incident 1088 for the specific archive on this incident. (2) In August 2023, a TikTok campaign under "The Voice of Sudan" purportedly used voice-cloning tools to simulate former President Omar al-Bashir, with recordings allegedly repurposed from a Sudanese commentator's livestreams. For the specific archive on this one, see Incident 1087. (3) In September 2023, tech-savvy Sudanese individuals reportedly used deepfake tools to create satirical videos, including one showing RSF leader Hemedti singing; some content was later framed as serious disinformation. (4) In October 2023, BBC investigators documented the Bashir impersonation campaign as a prominent example of synthetic media use, which forms the backbone of Incident 1087. (5) In March 2024, AI-generated audio was allegedly used to simulate the Sudanese Armed Forces commander ordering attacks on civilians; an alleged separate deepfake recording depicted a fabricated RSF-Freedom and Change coalition meeting discussing a coup. (6) Also in March 2024, Sudanese Armed Forces supporters reportedly cast doubt on genuine recordings of Hemedti by claiming they were AI-generated, an example of the liar's dividend. (7) In April 2024, an AI-generated image of a building purportedly bombed by the SAF went viral, reportedly misleading many political figures. Each of these incidents may form their own discrete incident IDs; this incident ID is a hub. The initial report that forms the backbone of this archive was published 10/23/2024; it was added to the database on 05/31/2025.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown voice cloning technology developers と Unknown deepfake technology developers developed an AI system deployed by Various actors aligned with Sudanese factions, which harmed Political leaders of Sudan , Journalists of Sudan , General public of Sudan , General public , Epistemic integrity と National security and intelligence stakeholders.
関与が疑われるAIシステム: Unknown voice cloning technology , Unknown deepfake technology と Social media

インシデントのステータス

インシデントID
1089
レポート数
1
インシデント発生日
2024-10-23
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.1. Disinformation, surveillance, and influence at scale

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

+1
ディープフェイクはスーダン戦争における強力な武器である
Loading...
ディープフェイクはスーダン戦争における強力な武器である

ディープフェイクはスーダン戦争における強力な武器である

africanarguments.org

Loading...
ディープフェイクはスーダン戦争における強力な武器である
africanarguments.org · 2024
自動翻訳済み

2024年4月、スーダンのFacebook上で炎に包まれた建物の画像が拡散しました。この画像は、ワドマダニ市にあるアルジャジーラ大学の建物で、スーダン軍が爆撃したというキャプションとともに広く共有されました。多くの政治指導者や著名人がこの画像に便乗し、共有しました。

しかし、これは特異な事例ではありませんでした。スーダン軍と反政府勢力の準軍事組織である緊急支援部隊との紛争が続く中、ソーシャルメディアプラットフォームは、AIが生成したディープフェイクが互いのフェイクニュースを拡…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

Selected by our editors
Loading...
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Apr 2023 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート
Loading...
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Feb 2022 · 4 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
Loading...
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Apr 2023 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート
Loading...
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Feb 2022 · 4 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449