Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 2818

関連インシデント

インシデント 4865 Report
AI Video-Making Tool Abused to Deploy Pro-China News on Social Media

Loading...
Deepfake It Till You Make It
graphika.com · 2023

Pro-Chinese Actors Promote AI-Generated Video Footage of Fictitious People in Online Influence Operation

  • In late 2022, Graphika observed limited instances of Spamouflage, a pro-Chinese influence operation (IO), promoting content that included video footage of fictitious people almost certainly created using artificial intelligence techniques. 
  • While a range of IO actors increasingly use AI-generated images or manipulated media in their campaigns, this was the first time we observed a state-aligned operation promoting video footage of AI-generated fictitious people.
  • The AI-generated footage was almost certainly produced using an “AI video creation platform” operated by a commercial company in the United Kingdom. The company offers its services for customers to create marketing or training videos and says “political […] content is not tolerated or approved.”
  • Despite featuring lifelike AI-generated avatars, the Spamouflage videos we reviewed were low-quality and spammy in nature. Additionally, none of the identified Spamouflage videos received more than 300 views, reflecting this actor’s long-standing challenges in producing convincing political content that generates authentic online engagement. 
  • We believe the use of commercially-available AI products will allow IO actors to create increasingly high-quality deceptive content at greater scale and speed. In the weeks since we identified the activity described in this report, we have seen other actors move quickly to adopt the exact same tactics. Most recently, this involved unidentified actors using the same AI tools to create videos targeting online conversations in Burkina Faso.

Read Full Report

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd