Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1425: 「マムダニ反対市民」アカウントが、政治的反対運動を装うために、架空のニューヨーカーのAI生成動画を投稿していたと報じられる

自動翻訳済み
概要:
自動翻訳済み
ニューヨークでは、「マムダニ反対市民」と名乗るアカウントが連携し、当時市長に選出されたゾーラン・マムダニ氏を批判する架空の住民のAI生成動画をInstagram、TikTok、XなどのSNSに投稿したと報じられている。一部の動画にはSoraの透かしがはっきりと表示されており、法医学鑑定士は少なくとも1つの動画がディープフェイクである可能性が非常に高いと判断したと報じられている。このキャンペーンは草の根運動による反対運動を模倣したもので、大きな反響を呼んだと伝えられている。
Editor Notes: Timeline notes: Incident date set to 11/05/2025 based on a reported recovered Instagram post from the citizensagainstmamdani account showing a visible Sora watermark and an on-platform posting date of November 5, 2025. This appears to currently be the earliest verified public posting identified for the campaign. The incident ID was created 03/21/2026.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown voice cloning technology developers , Unknown deepfake technology developers と OpenAI developed an AI system deployed by Unknown social media account operators , Unknown disinformation actors targeting Zohran Mamdani , Unknown disinformation actors , Citizens Against Mamdani social media accounts と Citizens Against Mamdani, which harmed Zohran Mamdani , Voters in New York , General public of New York , Epistemic integrity , Electoral integrity と American social media users.
関与が疑われるAIシステム: X (Twitter) , Unknown voice cloning technology , Unknown deepfake technology , TikTok , Sora と Instagram

インシデントのステータス

インシデントID
1425
レポート数
1
インシデント発生日
2025-11-05
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceマムダニ氏に対する新たなAI動画とディープフェイクによるアストロターフィング
Loading...
マムダニ氏に対する新たなAI動画とディープフェイクによるアストロターフィング

マムダニ氏に対する新たなAI動画とディープフェイクによるアストロターフィング

fastcompany.com

Loading...
マムダニ氏に対する新たなAI動画とディープフェイクによるアストロターフィング
fastcompany.com · 2025
自動翻訳済み

ゾラン・マムダニ次期市長を批判する架空のニューヨーカーの動画を生成するために、ほぼ間違いなく人工知能(AI)を使用していると思われる不気味なアカウントが、恐ろしい可能性を提起している。それは、ディープフェイクが政治家だけでなく、有権者のなりすましにも悪用される可能性があるということだ。

複数のソーシャルメディアプラットフォーム上のアカウントは、似たようなプロフィール画像を使用し、互いに関連しているように見える。これらのアカウントは「マムダニ反対市民」と名乗っている。ここ数日、…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Loading...
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd