Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 931: Reportedly Manipulated TikTok Videos Misrepresent Anti-AfD Protests as Far-Right Rallies

概要: TikTok videos purportedly depicted large crowds as chanting pro-AfD slogans by reportedly replacing the original audio with manipulated sound. The footage, originally from January 2024 anti-extremism protests, was repurposed in January 2025 to reportedly mislead viewers. Purported AI-generated or altered audio was added to create the illusion of far-right support. Fact-checkers confirmed the deception, and the accounts responsible later deleted the content, claiming no intent to spread misinformation.
Editor Notes: Please also refer to Incidents 909, 929, 1060, and 1061 for similar incidents. While this incident has not been explicitly attributed to Operation Overload (also known as Matryoshka or Storm-1679), its thematic content and manipulation tactics appear adjacent. No direct forensic or institutional linkage has been established as of this writing.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown voice cloning technology developer developed an AI system deployed by TikTok user Alice Weidel Fan , TikTok user AfD John と AfD supporters, which harmed Protesters against right-wing extremism in Germany , German election integrity と General public of Germany.
関与が疑われるAIシステム: Unknown voice cloning technology と TikTok

インシデントのステータス

インシデントID
931
レポート数
2
インシデント発生日
2025-01-21
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrence間違ったサウンドトラック:TikTok動画はAfDへの抗議として右翼過激主義に対するデモを販売偽のTikTok動画に、ドイツでAfDを支持する数十万人がデモ行進する様子が映っている
間違ったサウンドトラック:TikTok動画はAfDへの抗議として右翼過激主義に対するデモを販売

間違ったサウンドトラック:TikTok動画はAfDへの抗議として右翼過激主義に対するデモを販売

correctiv.org

偽のTikTok動画に、ドイツでAfDを支持する数十万人がデモ行進する様子が映っている

偽のTikTok動画に、ドイツでAfDを支持する数十万人がデモ行進する様子が映っている

euronews.com

間違ったサウンドトラック:TikTok動画はAfDへの抗議として右翼過激主義に対するデモを販売
correctiv.org · 2025
自動翻訳済み

いくつかの TikTok動画 何百万回も再生されているもの には、大規模なデモの様子が映っており、「東、東、東ドイツ」というスローガンが聞こえる。これらの動画を拡散しているプロフィールは、「アリス・ヴァイデルファン」や「AfDジョン」と呼ばれている。コメント欄では、多くのユーザーが同党への支持を表明している。しかし、動画に映っているのはAfDのためのデモではなく、2024年1月に右翼過激主義に反対するデモを行う人々だ。東ドイツのスローガンは後から追加されたものだ。オリジナルの…

偽のTikTok動画に、ドイツでAfDを支持する数十万人がデモ行進する様子が映っている
euronews.com · 2025
自動翻訳済み

ドイツの連邦選挙を前に、フェイクニュースやAIが生成したプロパガンダがオンラインで急増している。

ドイツの連邦選挙が近づくにつれ、極右政党「ドイツのための選択肢(AfD)」のために何十万人もの人々が行進している様子を映したとされるTikTok動画が話題になっている。

ドイツのメディアCorrectivは、動画が操作されていたことを明らかにした。これはEurorverifyの調査で確認されている。

AfD支持者のさまざまなアカウントによって投稿された動画は、群衆の映像と、極右政…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors

Falsehoods Fuel the Right-Wing Crusade Against U.S.A.I.D.

Feb 2025 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors

Falsehoods Fuel the Right-Wing Crusade Against U.S.A.I.D.

Feb 2025 · 2 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e