Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1087: スーダン紛争中にオマル・アル・バシルのものとされるAI生成音声を宣伝するキャンペーンが広がる

概要:
自動翻訳済み
2023年8月下旬から、「The Voice of Sudan」というTikTokチャンネルが、スーダンの元大統領オマル・アル・バシル氏の流出した録音だとするAI生成音声を拡散しました。専門家は、複数の録音が政治評論家による無関係な放送から抽出された、音声を複製した捏造であると特定しました。このキャンペーンはスーダン内戦中に始まり、政治的認識に影響を与えることを目的としていたようです。TikTokは後に、合成メディアポリシーに違反したとしてこのアカウントを削除しました。
Editor Notes: Although major reporting on this incident appeared in October 2023, available evidence indicates that the AI-generated audio impersonations of Omar al-Bashir began circulating on TikTok in late August 2023. The incident date has therefore been set as as 08/20/2023 to reflect the likely onset of the campaign. This date is approximate and based on the earliest known activity referenced in the BBC's 10/04/2023 investigation. It was added to the AI Incident Database on 05/31/2025. Please refer to Incident 1089 for wider context.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown voice cloning technology developer と Unknown deepfake technology developer developed an AI system deployed by The Voice of Sudan, which harmed Omar al-Bashir と General public of Sudan.
関与が疑われるAIシステム: Unknown voice cloning technology と Unknown deepfake technology

インシデントのステータス

インシデントID
1087
レポート数
3
インシデント発生日
2023-08-20
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrence+1
AI:スーダン内戦で音声クローン技術が登場
ディープフェイクはスーダン戦争における強力な武器である
AI:スーダン内戦で音声クローン技術が登場

AI:スーダン内戦で音声クローン技術が登場

bbc.com

スーダン元指導者のAIによるなりすましキャンペーンがTikTokで拡散

スーダン元指導者のAIによるなりすましキャンペーンがTikTokで拡散

dig.watch

ディープフェイクはスーダン戦争における強力な武器である

ディープフェイクはスーダン戦争における強力な武器である

africanarguments.org

AI:スーダン内戦で音声クローン技術が登場
bbc.com · 2023
自動翻訳済み

スーダンの元指導者オマル・アル・バシル氏のなりすましを人工知能(AI)で実現するキャンペーンが、TikTokで数十万回も再生され、内戦で引き裂かれた同国にオンライン上の混乱をもたらしている。

匿名のアカウントが8月下旬から、元大統領の「流出した音声」と称する動画を投稿している。このチャンネルには数十本の動画が投稿されているが、音声は偽物だ。

戦争犯罪を計画したとして告発され、2019年に軍によって失脚したバシル氏は、1年間公の場に姿を見せておらず、重体とみられている。バシル氏…

スーダン元指導者のAIによるなりすましキャンペーンがTikTokで拡散
dig.watch · 2023
自動翻訳済み

BBCの最近の報道によると、人工知能を使ってスーダンの元指導者オマル・アル・バシルになりすます匿名のキャンペーンがTikTokで広く注目を集め、すでに内戦に苦しんでいる国でオンライン上の混乱を拡大している。 「スーダンの声」という名称で活動するこのキャンペーンは、8月下旬からバシール大統領の「流出した録音」とされる音声を投稿しているが、その音声の信憑性には疑問が投げかけられている。

バシール大統領は病気のため公の場に姿を見せておらず、戦争犯罪容疑もかけられていることから、専門…

ディープフェイクはスーダン戦争における強力な武器である
africanarguments.org · 2024
自動翻訳済み

2024年4月、スーダンのFacebook上で炎に包まれた建物の画像が拡散しました。この画像は、ワドマダニ市にあるアルジャジーラ大学の建物で、スーダン軍が爆撃したというキャプションとともに広く共有されました。多くの政治指導者や著名人がこの画像に便乗し、共有しました。

しかし、これは特異な事例ではありませんでした。スーダン軍と反政府勢力の準軍事組織である緊急支援部隊との紛争が続く中、ソーシャルメディアプラットフォームは、AIが生成したディープフェイクが互いのフェイクニュースを拡…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors
Purported AI-Generated Audio Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
Purported AI-Generated Audio Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c