Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 809: TikTok Hosts AI-Generated English-Language Hitler Speeches with Millions of Views

概要: AI-generated English-language Adolf Hitler speeches have been proliferating on TikTok. They are reportedly accumulating millions of views despite violating the platform’s hate speech policies. The clips are described as often pairing the audio with misleading translations and memes that glorify Hitler and distort historical facts. While some content has been removed, many accounts reportedly continue to post similar videos.
Editor Notes: Reconstructing the timeline of events: On April 7, 2024, Media Matters identified at least one AI-generated English-language speech being attributed to Hitler circulating on TikTok. By early September 2024, the number of videos featuring these speeches began to proliferate, with many gaining significant traction, receiving hundreds of thousands to millions of views. On September 1, 2024, one particularly prominent video featuring an AI-generated Hitler speech garnered over a million views before it was removed. On September 17, 2024, Media Matters published a report documenting the widespread presence of these AI-generated Hitler speeches on the platform. The following day, September 18, 2024, TikTok removed at least one account posting this content, although similar videos are reportedly continuing to circulate. Note on "NazTok": See editor's note for Incident 810 for an explanation for "NazTok" deployer tag. Incident 809 is a subset of Incident 810.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Unknown deepfake creators, which harmed TikTok users.

インシデントのステータス

インシデントID
809
レポート数
1
インシデント発生日
2024-04-07
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

Incident OccurrenceAIが生成したと思われるヒトラーの演説がTikTokで数百万回再生されている
AIが生成したと思われるヒトラーの演説がTikTokで数百万回再生されている

AIが生成したと思われるヒトラーの演説がTikTokで数百万回再生されている

mediamatters.org

AIが生成したと思われるヒトラーの演説がTikTokで数百万回再生されている
mediamatters.org · 2024
自動翻訳済み

更新(2024年9月18日): このレポートの公開後、TikTokは、AIによって生成されたと思われる英語のヒトラーの演説を投稿していると特定したアカウントを少なくとも1つ削除しました。この削除にもかかわらず、これらの演説のコンテンツはプラットフォーム上で引き続き流通しています。レポートの公開後、Media Mattersは、少なくとも273回使用されている別のヒトラーの音声を特定しました。

AIによって生成されたと思われる英語で演説するヒトラーの音声クリップがTikTokで…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors

NazTok: An organized neo-Nazi TikTok network is getting millions of views

Jul 2024 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok Is Filled With Pro-Eating Disorder Content, Despite Its Own Rules

Jul 2019 · 3 レポート
Fake Accounts Using GAN Faces Deployed by Propaganda Campaign on Social Platforms

Pro-China Propaganda Act Used Fake Followers Made With AI-Generated Images

Jun 2020 · 2 レポート
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Criticized for ‘Inappropriate Content’

May 2015 · 14 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors

NazTok: An organized neo-Nazi TikTok network is getting millions of views

Jul 2024 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok Is Filled With Pro-Eating Disorder Content, Despite Its Own Rules

Jul 2019 · 3 レポート
Fake Accounts Using GAN Faces Deployed by Propaganda Campaign on Social Platforms

Pro-China Propaganda Act Used Fake Followers Made With AI-Generated Images

Jun 2020 · 2 レポート
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Criticized for ‘Inappropriate Content’

May 2015 · 14 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e