Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 486: AI Video-Making Tool Abused to Deploy Pro-China News on Social Media

概要: Synthesia's AI-generated video-making tool was reportedly used by Spamouflage to disseminate pro-China propaganda news on social media using videos featuring highly realistic fictitious news anchors.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Synthesia developed an AI system deployed by Spamouflage Dragon, which harmed Synthesia , YouTube users , Twitter Users と Facebook users.

インシデントのステータス

インシデントID
486
レポート数
5
インシデント発生日
2022-12-01
エディタ
Khoa Lam
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.1. Disinformation, surveillance, and influence at scale

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

Incident Occurrence+2
The People Onscreen Are Fake. The Disinformation Is Real.
Deepfake newsreaders pump out pro-China newsDeepfakes and Disinformation Pose a Growing Threat in Asia
The People Onscreen Are Fake. The Disinformation Is Real.

The People Onscreen Are Fake. The Disinformation Is Real.

nytimes.com

Deepfake It Till You Make It

Deepfake It Till You Make It

graphika.com

Research: Deepfake 'News Anchors' in Pro-China Footage

Research: Deepfake 'News Anchors' in Pro-China Footage

voanews.com

Deepfake newsreaders pump out pro-China news

Deepfake newsreaders pump out pro-China news

thetimes.co.uk

Deepfakes and Disinformation Pose a Growing Threat in Asia

Deepfakes and Disinformation Pose a Growing Threat in Asia

thediplomat.com

The People Onscreen Are Fake. The Disinformation Is Real.
nytimes.com · 2023

In one video, a news anchor with perfectly combed dark hair and a stubbly beard outlined what he saw as the United States’ shameful lack of action against gun violence.

In another video, a female news anchor heralded China’s role in geopoli…

Deepfake It Till You Make It
graphika.com · 2023

Pro-Chinese Actors Promote AI-Generated Video Footage of Fictitious People in Online Influence Operation

  • In late 2022, Graphika observed limited instances of Spamouflage, a pro-Chinese influence operation (IO), promoting content that inclu…
Research: Deepfake 'News Anchors' in Pro-China Footage
voanews.com · 2023

Washington — The "news broadcasters" appear stunningly real, but they are AI-generated deepfakes in first-of-their-kind propaganda videos that a research report published Tuesday attributed to Chinese state-aligned actors.

The fake anchors …

Deepfake newsreaders pump out pro-China news
thetimes.co.uk · 2023

A British company's AI technology has been hijacked to create a pro-Chinese news channel featuring a pair of computer-generated presenters.

Wolf News had been building a profile on social media but was exposed this month as being linked to …

Deepfakes and Disinformation Pose a Growing Threat in Asia
thediplomat.com · 2023

Recent news on the use of computer-generated avatars by a pro-China influence campaign has once again aimed a spotlight at the usage of deepfakes. The influence campaign was first observed by intelligence company Graphika in late 2022. Vide…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Chinese Chatbots Question Communist Party

Rogue chatbots deleted in China after questioning Communist Party

Aug 2017 · 16 レポート
Female Applicants Down-Ranked by Amazon Recruiting Tool

2018 in Review: 10 AI Failures

Aug 2016 · 33 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Chinese Chatbots Question Communist Party

Rogue chatbots deleted in China after questioning Communist Party

Aug 2017 · 16 レポート
Female Applicants Down-Ranked by Amazon Recruiting Tool

2018 in Review: 10 AI Failures

Aug 2016 · 33 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e