Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 875: Coordinated Deepfake Campaign Reportedly Impersonating Rishi Sunak Promoted Fraudulent Quantum AI Investment Platform on Meta

概要: 143 deepfake ads, over 100 of which reportedly impersonated former British Prime Minister Rishi Sunak, were promoted on Meta's platform to advertise the fraudulent investment scheme "Quantum AI." Funding for the ads reportedly originated from 23 countries. Up to 462,000 users may have been exposed to the false content. The campaign used generative AI tools to create high-quality misinformation, including spoofed BBC news clips for added legitimacy
Editor Notes: Reconstructing the timeline of events: (1) August 12, 2023: Reported start of the deepfake ad campaign on Meta; (2) August 1, 2024: End of the one-month investigation period during which Fenimore Harper identified 143 deepfake ads; (3) January 13, 2024: Fenimore Harper publishes its findings. Read the full report here: https://www.fenimoreharper.com/s/FENIMORE-HARPER-REPORT_-DEEP-FAKED-POLITICAL-ADS-V2.pdf. The full list of 143 identified ads by Fenimore Harper can be accessed here: https://www.fenimoreharper.com/s/Deepfake-Finance-Scam_-Full-List-of-Ads.xlsx.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Quantum AI scammers, which harmed Rishi Sunak , Quantum AI victims , Meta users と BBC News presenters.
関与が疑われるAIシステム: Unknown deepfake technology apps

インシデントのステータス

インシデントID
875
レポート数
2
インシデント発生日
2024-01-08
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

Incident Occurrenceフェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される
フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘

フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘

theguardian.com

メタのプラットフォームでリシ・スナック氏のディープフェイク広告��が100件以上発見される

メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される

fenimoreharper.com

フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘
theguardian.com · 2024
自動翻訳済み

総選挙前にAIがもたらすリスクについて警鐘を鳴らしている調査によると、先月だけでFacebookで宣伝するためにリシ・スナックになりすましたディープフェイク動画広告が100本以上も支払われた。

広告はFacebookのポリシーにいくつか違反しているように見えるにもかかわらず、最大40万人に届いた可能性があり、首相のイメージが組織的に大量に改ざんされたのは初めてだ。

143本の広告に1万2929ポンド以上が費やされ、発信元は米国、トルコ、マレーシア、フィリピンなど23カ国。

広…

メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される
fenimoreharper.com · 2024
自動翻訳済み

概要

  • 先月、リシ・スナック首相を装ったディープフェイク動画広告が100本以上、Metaのプラットフォームで宣伝され、有料配信されました。

  • これらの広告は、Metaの広告ポリシーのいくつかに明確に違反しているにもかかわらず、40万人以上にリーチした可能性があります。

  • 143件の個別の広告が発見され、先月(2023年12月8日~2024年1月8日)だけで、最大12,929ポンドがこれらの広告に費やされました。

  • 広告の資金は、トルコ、マレーシア、フィリピン、米国を含…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e