Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1022: ザンビアのハカインデ・ヒチレマ大統領が2026年の選挙から撤退する様子を描いたディープフェイク動画が流出か

概要:
自動翻訳済み
2023年10月、ザンビアのハカインデ・ヒチレマ大統領が2026年の選挙への不出馬を表明したという虚偽の主張を含む動画がソーシャルメディア上で拡散しました。ファクトチェッカーとデジタルフォレンジックの専門家は、この動画が基本的なAIツールを用いて操作されたことを確認しました。この動画は、AI生成コンテンツで知られるTikTokアカウントから発信されました。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer developed an AI system deployed by @zambian_ai TikTok account と Unknown actors, which harmed Hakainde Hichilema , General public of Zambia , Electoral integrity , Democracy と United Party for National Development (UPND).
関与が疑われるAIシステム: Unknown deepfake apps と TikTok

インシデントのステータス

インシデントID
1022
レポート数
1
インシデント発生日
2023-10-12
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceデジタル加工されたビデオは、ザンビアのヒチレマ大統領が再選を目指さないと虚偽の主張をしている
デジタル加工されたビデオは、ザンビアのヒチレマ大統領が再選を目指さないと虚偽の主張をしている

デジタル加工されたビデオは、ザンビアのヒチレマ大統領が再選を目指さないと虚偽の主張をしている

africacheck.org

デジタル加工されたビデオは、ザンビアのヒチレマ大統領が再選を目指さないと虚偽の主張をしている
africacheck.org · 2023
自動翻訳済み

2023年10月にソーシャルメディア上で拡散した投稿には、ザンビアのハカインデ・ヒチレマ大統領が再選に立候補しないことを表明する動画が映っているという主張があります。

ザンビアの次回選挙は2026年です。ヒチレマ氏は2021年、統一国家開発党(UPND)が当時の大統領エドガー・ルング氏を相手に地滑り的勝利を収めて以来、政権を握っています。

この主張の一つは、ソーシャルメディアプラットフォームX(旧Twitter)のアカウントによって投稿されたもので、ガーナの政治家サミュエル・…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df