Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1025: ケニアの元大統領ウフル・ケニヤッタ氏が2027年大統領選への出馬を表明したとされるディープフェイク動画

概要:
自動翻訳済み
広く共有されたTikTok動画は、ケニアのウフル・ケニヤッタ前大統領が2027年大統領選への出馬を発表したとされる虚偽の動画です。デジタルフォレンジックと映像の不一致から、この動画はAIによって生成されたディープフェイクであることが確認されました。ケニヤッタ前大統領の在任期間のアーカイブ映像に合成音声が加えられています。この捏造された動画はオンラインで急速に拡散しましたが、ファクトチェッカーによって誤りであることが確認されました。ケニヤッタ前大統領はそのような発表を行っておらず、そのような行動はケニア憲法で定められた2期制に違反することになります。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer developed an AI system deployed by Unknown actors と Disinformation spreaders, which harmed Uhuru Kenyatta と General public of Kenya.
関与が疑われるAIシステム: Unknown deepfake app と TikTok

インシデントのステータス

インシデントID
1025
レポート数
1
インシデント発生日
2024-03-18
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceケニアの元大統領ウフル・ケニヤッタが2027年の大統領選に出馬すると主張するディープフェイク動画は無視してください
ケニアの元大統領ウフル・ケニヤッタが2027年の大統領選に出馬すると主張するディープフェイク動画は無視してください

ケニアの元大統領ウフル・ケニヤッタが2027年の大統領選に出馬すると主張するディープフェイク動画は無視してください

africacheck.org

ケニアの元大統領ウフル・ケニヤッタが2027年の大統領選に出馬すると主張するディープフェイク動画は無視してください
africacheck.org · 2025
自動翻訳済み

**要約:**TikTok動画には、ケニヤッタ氏が政界復帰と2027年の大統領選への出馬を発表する様子が映っているようですが、この動画はディープフェイク技術を用いて作成された偽物です。

TikTokの動画には、ケニアのウフル・ケニヤッタ前大統領が大統領旗を掲げた演壇に立って演説する様子が映っています。

12秒の動画の中で、ケニヤッタ氏はこう語ります。「ケニアの皆さん、2027年には大統領選に出馬します。私は政界に完全復帰することを決意しました。その時が来たら、皆さんの投票をお…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Korean Politician Employed Deepfake as Campaign Representative

These Campaigns Hope ‘Deepfake’ Candidates Help Get Out the Vote

Dec 2021 · 5 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Korean Politician Employed Deepfake as Campaign Representative

These Campaigns Hope ‘Deepfake’ Candidates Help Get Out the Vote

Dec 2021 · 5 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c