Description: 143 deepfake ads, over 100 of which reportedly impersonated former British Prime Minister Rishi Sunak, were promoted on Meta's platform to advertise the fraudulent investment scheme "Quantum AI." Funding for the ads reportedly originated from 23 countries. Up to 462,000 users may have been exposed to the false content. The campaign used generative AI tools to create high-quality misinformation, including spoofed BBC news clips for added legitimacy
Editor Notes: Reconstructing the timeline of events: (1) August 12, 2023: Reported start of the deepfake ad campaign on Meta; (2) August 1, 2024: End of the one-month investigation period during which Fenimore Harper identified 143 deepfake ads; (3) January 13, 2024: Fenimore Harper publishes its findings. Read the full report here: https://www.fenimoreharper.com/s/FENIMORE-HARPER-REPORT_-DEEP-FAKED-POLITICAL-ADS-V2.pdf. The full list of 143 identified ads by Fenimore Harper can be accessed here: https://www.fenimoreharper.com/s/Deepfake-Finance-Scam_-Full-List-of-Ads.xlsx.
Alleged: Unknown deepfake technology developers developed an AI system deployed by Quantum AI scammers, which harmed Rishi Sunak , Quantum AI victims , Meta users と BBC News presenters.
関与が疑われるAIシステム: Unknown deepfake technology apps
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
インシデントレポート
レポートタイムライン

総選挙前にAIがもたらすリスクについて警鐘を鳴らしている調査によると、先月だけでFacebookで宣伝するためにリシ・スナックになりすましたディープフェイク動画広告が100本以上も支払われた。
広告はFacebookのポリシーにいくつか違反しているように見えるにもかかわらず、最大40万人に届いた可能性があり、首相のイメージが組織的に大量に改ざんされたのは初めてだ。
143本の広告に1万2929ポンド以上が費やされ、発信元は米国、トルコ、マレーシア、フィリピンなど23カ国。
広…
概要
-
先月、リシ・スナック首相を装ったディープフェイク動画広告が100本以上、Metaのプラットフォームで宣伝され、有料配信されました。
-
これらの広告は、Metaの広告ポリシーのいくつかに明確に違反しているにもかかわらず、40万人以上にリーチした可能性があります。
-
143件の個別の広告が発見され、先月(2023年12月8日~2024年1月8日)だけで、最大12,929ポンドがこれらの広告に費やされました。
-
広告の資金は、トルコ、マレーシア、フィリピン、米国を含…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents