Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 875: Une campagne coordonnée de deepfakes se faisant passer pour Rishi Sunak a promu une plateforme d'investissement frauduleuse en IA quantique sur Meta

Traduit par IA
Description:
Traduit par IA
143 publicités deepfake, dont plus de 100 se faisant passer pour l'ancien Premier ministre britannique Rishi Sunak, ont été diffusées sur la plateforme Meta pour promouvoir le système d'investissement frauduleux « Quantum AI ». Le financement de ces publicités proviendrait de 23 pays. Jusqu'à 462 000 utilisateurs auraient été exposés à ce faux contenu. La campagne a utilisé des outils d'IA générative pour créer de la désinformation de haute qualité, notamment des extraits d'actualités de la BBC falsifiés pour plus de légitimité.
Editor Notes: Reconstructing the timeline of events: (1) August 12, 2023: Reported start of the deepfake ad campaign on Meta; (2) August 1, 2024: End of the one-month investigation period during which Fenimore Harper identified 143 deepfake ads; (3) January 13, 2024: Fenimore Harper publishes its findings. Read the full report here: https://www.fenimoreharper.com/s/FENIMORE-HARPER-REPORT_-DEEP-FAKED-POLITICAL-ADS-V2.pdf. The full list of 143 identified ads by Fenimore Harper can be accessed here: https://www.fenimoreharper.com/s/Deepfake-Finance-Scam_-Full-List-of-Ads.xlsx.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown deepfake technology developers developed an AI system deployed by Quantum AI scammers, which harmed Rishi Sunak , Quantum AI victims , Meta users et BBC News presenters.
Système d'IA présumé impliqué: Unknown deepfake technology apps

Statistiques d'incidents

ID
875
Nombre de rapports
2
Date de l'incident
2024-01-08
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceUne série de fausses publicités vidéo de Sunak sur Facebook suscite l'inquiétude quant aux risques de l'IA pour les électionsPlus de 100 fausses publicités de Rishi Sunak découvertes sur la plateforme Meta
Une série de fausses publicités vidéo de Sunak sur Facebook suscite l'inquiétude quant aux risques de l'IA pour les élections

Une série de fausses publicités vidéo de Sunak sur Facebook suscite l'inquiétude quant aux risques de l'IA pour les élections

theguardian.com

Plus de 100 fausses publicités de Rishi Sunak découvertes sur la plateforme Meta

Plus de 100 fausses publicités de Rishi Sunak découvertes sur la plateforme Meta

fenimoreharper.com

Une série de fausses publicités vidéo de Sunak sur Facebook suscite l'inquiétude quant aux risques de l'IA pour les élections
theguardian.com · 2024
Traduit par IA

Plus de 100 publicités vidéo deepfake se faisant passer pour Rishi Sunak (https://www.theguardian.com/politics/rishi-sunak) ont été payées pour être promues sur Facebook au cours du seul mois dernier, selon une étude qui a tiré la sonnette …

Plus de 100 fausses publicités de Rishi Sunak découvertes sur la plateforme Meta
fenimoreharper.com · 2024
Traduit par IA

RÉSUMÉ EXÉCUTIF

  • Plus de 100 publicités vidéo truquées se faisant passer pour le Premier ministre Rishi Sunak ont été payées pour être promues sur la plateforme de Meta au cours du mois dernier.

  • Ces publicités pourraient avoir atteint pl…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178