Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1024: ケニア人ジャーナリスト、ジェフ・コイナンゲ氏がAI生成ディープフェイクでギャンブルアプリを推奨していると虚偽描写される

概要:
自動翻訳済み
ケニア人ジャーナリストのジェフ・コイナンゲ氏がモバイルギャンブルアプリを宣伝しているという虚偽の動画が拡散しています。この動画はAIディープフェイク技術を用いて作成されたと報じられており、正規のニュース番組の映像が使用され、コイナンゲ氏の声と口の動きが人為的に改変されています。コイナンゲ氏もCitizen TVもこのアプリを宣伝しておらず、この動画をホストしている正規の情報源もありません。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer developed an AI system deployed by scammers , Fraudsters と Scammers impersonating Jeff Koinange, which harmed Jeff Koinange と General public of Kenya.
関与が疑われるAIシステム: Facebook と Unknown deepfake app

インシデントのステータス

インシデントID
1024
レポート数
1
インシデント発生日
2024-04-24
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceケニアのニュースキャスター、ジェフ・コイナンゲがギャンブルアプリを宣伝する動画はディープフェイク
ケニアのニュースキャスター、ジェフ・コイナンゲがギャンブルアプリを宣伝する動画はディープフェイク

ケニアのニュースキャスター、ジェフ・コイナンゲがギャンブルアプリを宣伝する動画はディープフェイク

africacheck.org

ケニアのニュースキャスター、ジェフ・コイナンゲがギャンブルアプリを宣伝する動画はディープフェイク
africacheck.org · 2024
自動翻訳済み

**要約:**Facebookに投稿された動画には、ケニア人ジャーナリストのジェフ・コイナンゲ氏がモバイルギャンブルアプリを推奨する様子が映っています。しかし、この動画は人工知能(AI)を用いて作成されたものです。

Facebookに投稿された[動画](https://www.facebook.com/100069909438845/videos/764822642084628/ (新しいウィンドウで開きます)")の中で、ケニア人ジャーナリストのジェフ・コイナンゲ氏(http…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 レポート
The DAO Hack

The DAO (organization)

Jun 2016 · 24 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 レポート
The DAO Hack

The DAO (organization)

Jun 2016 · 24 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e