Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1336: BJPは2020年デリー選挙でマノジ・ティワリのディープフェイク動画を使ってハリヤンヴィの有権者をターゲットにした

自動翻訳済み
概要:
自動翻訳済み
2020年2月、インドのインド人民党(BJP)は、党首マノジ・ティワリ氏のディープフェイク動画とされる動画を、デリー議会選挙の有権者に影響を与えるために使用しました。報道によると、これらの動画には、ティワリ氏が、自身が話せないハリヤンヴィ語と英語で、唇の動きや声を操作して台本通りの選挙メッセージを伝える様子が映っていました。数千のWhatsAppグループを通じて配信されたディープフェイク動画は、未公開のまま数百万人の有権者に届いたと報じられています。
Editor Notes: This incident reportedly took place in February 2020. The incident ID was created 01/10/2026.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers と Unknown voice cloning technology developers developed an AI system deployed by Unknown disinformation actors , Unknown disinformation actors in India , BJP Delhi IT Cell と The Ideaz Factory, which harmed General public , General public of India , Epistemic integrity , Manoj Tiwari と Electoral integrity.
関与が疑われるAIシステム: Unknown deepfake technology , Unknown voice cloning technology , Social media platforms と WhatsApp

インシデントのステータス

インシデントID
1336
レポート数
1
インシデント発生日
2020-02-07
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceインドの選挙キャンペーンでディープフェイクが初めて使用された
Loading...
インドの選挙キャンペーンでディープフェイクが初めて使用された

インドの選挙キャンペーンでディープフェイクが初めて使用された

vice.com

Loading...
インドの選挙キャンペーンでディープフェイクが初めて使用された
vice.com · 2020
自動翻訳済み

2月7日、デリーで立法議会選挙が行われる前日、インド人民党(BJP)のマノジ・ティワリ党首が、アルヴィンド・ケジリワル政権を批判する2本の動画がWhatsAppで拡散した。一方の動画ではティワリ党首は英語で、もう一方の動画ではヒンディー語方言のハリヤンヴィ語で話していた。「[ケジリワル]は約束を盾に我々を騙した。しかし今、デリーには全てを変えるチャンスがある。2月8日にロータスボタンを押して、モディ率いる政権を樹立しよう」とティワリ党首は述べた。

動画

この44秒間の独白は、…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 レポート
Loading...
FaceApp Racial Filters

FaceApp Racial Filters

Apr 2017 · 23 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 レポート
Loading...
FaceApp Racial Filters

FaceApp Racial Filters

Apr 2017 · 23 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449