Incident 875: Une campagne coordonnée de deepfakes se faisant passer pour Rishi Sunak a promu une plateforme d'investissement frauduleuse en IA quantique sur Meta
Description: 143 publicités deepfake, dont plus de 100 se faisant passer pour l'ancien Premier ministre britannique Rishi Sunak, ont été diffusées sur la plateforme Meta pour promouvoir le système d'investissement frauduleux « Quantum AI ». Le financement de ces publicités proviendrait de 23 pays. Jusqu'à 462 000 utilisateurs auraient été exposés à ce faux contenu. La campagne a utilisé des outils d'IA générative pour créer de la désinformation de haute qualité, notamment des extraits d'actualités de la BBC falsifiés pour plus de légitimité.
Editor Notes: Reconstructing the timeline of events: (1) August 12, 2023: Reported start of the deepfake ad campaign on Meta; (2) August 1, 2024: End of the one-month investigation period during which Fenimore Harper identified 143 deepfake ads; (3) January 13, 2024: Fenimore Harper publishes its findings. Read the full report here: https://www.fenimoreharper.com/s/FENIMORE-HARPER-REPORT_-DEEP-FAKED-POLITICAL-ADS-V2.pdf. The full list of 143 identified ads by Fenimore Harper can be accessed here: https://www.fenimoreharper.com/s/Deepfake-Finance-Scam_-Full-List-of-Ads.xlsx.
Entités
Voir toutes les entitésAlleged: Unknown deepfake technology developers developed an AI system deployed by Quantum AI scammers, which harmed Rishi Sunak , Quantum AI victims , Meta users et BBC News presenters.
Système d'IA présumé impliqué: Unknown deepfake technology apps
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport

Plus de 100 publicités vidéo deepfake se faisant passer pour Rishi Sunak (https://www.theguardian.com/politics/rishi-sunak) ont été payées pour être promues sur Facebook au cours du seul mois dernier, selon une étude qui a tiré la sonnette …
RÉSUMÉ EXÉCUTIF
-
Plus de 100 publicités vidéo truquées se faisant passer pour le Premier ministre Rishi Sunak ont été payées pour être promues sur la plateforme de Meta au cours du mois dernier.
-
Ces publicités pourraient avoir atteint pl…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 rapports
Defamation via AutoComplete
· 28 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 rapports
Defamation via AutoComplete
· 28 rapports