Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 875: リシ・スナック氏を装ったとされる組織的なディープフェイクキャンペーンが、メタで詐欺的な量子AI投資プラットフォームを宣伝していたと報じられている。

自動翻訳済み
概要:
自動翻訳済み
メタのプラットフォーム上で、詐欺的な投資スキーム「Quantum AI」を宣伝するために、143件のディープフェイク広告が配信されました。そのうち100件以上は、リシ・スナック元英国首相を装ったと報じられています。広告の資金は23カ国から提供されたと報じられています。最大46万2000人のユーザーが偽コンテンツに接触した可能性があります。このキャンペーンでは、生成AIツールを用いて、BBCのニュースクリップを模倣した偽情報など、質の高い誤情報を作成し、信憑性を高めていました。
Editor Notes: Reconstructing the timeline of events: (1) August 12, 2023: Reported start of the deepfake ad campaign on Meta; (2) August 1, 2024: End of the one-month investigation period during which Fenimore Harper identified 143 deepfake ads; (3) January 13, 2024: Fenimore Harper publishes its findings. Read the full report here: https://www.fenimoreharper.com/s/FENIMORE-HARPER-REPORT_-DEEP-FAKED-POLITICAL-ADS-V2.pdf. The full list of 143 identified ads by Fenimore Harper can be accessed here: https://www.fenimoreharper.com/s/Deepfake-Finance-Scam_-Full-List-of-Ads.xlsx.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Quantum AI scammers, which harmed Rishi Sunak , Quantum AI victims , Meta users と BBC News presenters.
関与が疑われるAIシステム: Unknown deepfake technology apps

インシデントのステータス

インシデントID
875
レポート数
2
インシデント発生日
2024-01-08
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

Incident Occurrenceフェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される
フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘

フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘

theguardian.com

メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される

メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される

fenimoreharper.com

フェイスブック上のスナック氏のディープフェイク動画広告が大量に出回り、AIが選挙に及ぼすリスクに警鐘
theguardian.com · 2024
自動翻訳済み

総選挙前にAIがもたらすリスクについて警鐘を鳴らしている調査によると、先月だけでFacebookで宣伝するためにリシ・スナックになりすましたディープフェイク動画広告が100本以上も支払われた。

広告はFacebookのポリシーにいくつか違反しているように見えるにもかかわらず、最大40万人に届いた可能性があり、首相のイメージが組織的に大量に改ざんされたのは初めてだ。

143本の広告に1万2929ポンド以上が費やされ、発信元は米国、トルコ、マレーシア、フィリピンなど23カ国。

広…

メタのプラットフォームでリシ・スナック氏のディープフェイク広告が100件以上発見される
fenimoreharper.com · 2024
自動翻訳済み

概要

  • 先月、リシ・スナック首相を装ったディープフェイク動画広告が100本以上、Metaのプラットフォームで宣伝され、有料配信されました。

  • これらの広告は、Metaの広告ポリシーのいくつかに明確に違反しているにもかかわらず、40万人以上にリーチした可能性があります。

  • 143件の個別の広告が発見され、先月(2023年12月8日~2024年1月8日)だけで、最大12,929ポンドがこれらの広告に費やされました。

  • 広告の資金は、トルコ、マレーシア、フィリピン、米国を含…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 レポート
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 レポート
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 レポート
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178