Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1023: AIクローン音声がケニア大統領ウィリアム・ルート氏のフランス語発言を偽装する動画が拡散

概要:
自動翻訳済み
TikTokとFacebookで広く共有されている動画は、2024年2月7日に東京で行われたケニア大統領ウィリアム・ルート氏がフランス語で演説している様子を偽装している。画像検索の結果、元の動画ではルート氏がケニア人ディアスポラに向けて英語で話している様子が確認できた。この加工版では、元の動画にAIが生成したフランス語の音声が重ねられているため、完全なオーディオビジュアル・ディープフェイクではなく、音声の複製が行われている。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer と Unknown voice cloning technology developer developed an AI system deployed by Unknown actors と Unknown actors manipulating footage of William Ruto, which harmed William Ruto と General public of Kenya.
関与が疑われるAIシステム: Unknown deepfake app , Unknown voice cloning technology , Facebook , Instagram と Social media

インシデントのステータス

インシデントID
1023
レポート数
1
インシデント発生日
2024-02-19
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceこの動画でケニア大統領ウィリアム・ルート氏はフランス語で話しているのでしょうか?いいえ、これはディープフェイクです。
この動画でケニア大統領ウィリアム・ルート氏はフランス語で話しているのでしょうか?いいえ、これはディープフェイクです。

この動画でケニア大統領ウィリアム・ルート氏はフランス語で話しているのでしょうか?いいえ、これはディープフェイクです。

africacheck.org

この動画でケニア大統領ウィリアム・ルート氏はフランス語で話しているのでしょうか?いいえ、これはディープフェイクです。
africacheck.org · 2024
自動翻訳済み

要約: ケニアのウィリアム・ルート大統領がフランス語で話している動画が、ケニアのソーシャルメディアで拡散しています。しかし、音声は人工知能(AI)ツールによって編集されています。

TikTokで投稿され、Facebookで共有された短い動画には、ケニアのウィリアム・ルート大統領がフランス語と思われる言語で話している様子が映っています。

動画では、ルート大統領が聴衆の前で演壇に立っています。彼の後ろには、黒と青と白の2つの旗が掲げられています。

ルトがこう言っているのが聞こえる…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
Security Robot Drowns Itself in a Fountain

DC security robot quits job by drowning itself in a fountain

Jul 2017 · 30 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
Security Robot Drowns Itself in a Fountain

DC security robot quits job by drowning itself in a fountain

Jul 2017 · 30 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e