Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1170: クリス・クオモは、アレクサンドリア・オカシオ=コルテスのディープフェイク動画を拡散し、誤解を招く政治的言説に貢献したとされる。

自動翻訳済み
概要:
自動翻訳済み
NewsNationの司会者クリス・クオモ氏は、アレクサンドリア・オカシオ=コルテス氏の動画をインスタグラムで共有したと報じられています。この動画には、AI技術で作成されたパロディ・ディープフェイクであることが明確に表示されていました。クオモ氏はコメントの中で、動画内の発言を本物であるかのように扱い、視聴者のためにオカシオ=コルテス氏を批判したとされています。
Editor Notes: This incident ID concerns the amplification of a reportedly AI-generated parody video depicting U.S. Representative Alexandria Ocasio-Cortez, purportedly labeled by its source as created with "ChatGPT + AI Art" (possibly referring to OpenAI's DALL-E image generation, although this has not been independently verified). The original creator and specific AI tools remain unconfirmed. Journalist Chris Cuomo reportedly reposted the video on Instagram without clear verification, thereby increasing its reach and potential for confusion. The harm described here arises less from the alleged creation of the deepfake than from its high-profile amplification, which reportedly resulted in public misperception and reputational harms.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer と OpenAI developed an AI system deployed by Unknown creator of Alexandria Ocasio-Cortez parody deepfake と Chris Cuomo, which harmed Chris Cuomo , Alexandria Ocasio-Cortez , General public と Epistemic integrity.
関与が疑われるAIシステム: Unknown deepfake technology , Instagram , ChatGPT と DALL-E

インシデントのステータス

インシデントID
1170
レポート数
1
インシデント発生日
2025-08-06
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceクリス・クオモ、ディープフェイクのAOC動画に騙された後の対応を嘲笑される
Loading...
クリス・クオモ、ディープフェイクのAOC動画に騙された後の対応を嘲笑される

クリス・クオモ、ディープフェイクのAOC動画に騙された後の対応を嘲笑される

theguardian.com

Loading...
クリス・クオモ、ディープフェイクのAOC動画に騙された後の対応を嘲笑される
theguardian.com · 2025
自動翻訳済み

アメリカのテレビ司会者クリス・クオモ氏は、アレクサンドリア・オカシオ=コルテス下院議員をパロディ化したAI動画に騙されたとして、非難を浴びている。動画には、明らかにディープフェイクであることが透かしで表示されており、元CNNのスタッフであるクオモ氏は水曜日に、AI技術を用いて作成された「ディープフェイク」動画であることがはっきりと分かる動画をインスタグラムに投稿した。動画には、偽のアレクサンドリア・オカシオ=コルテス議員が、議会で、自身の「素晴らしいジーンズ」を宣伝するシドニ…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 レポート
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 レポート
前のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 レポート
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4