Incident 674: Les médias manipulés par l'IA, la désinformation et les deepfakes lors des élections de 2024 érodent la confiance dans plus de 50 pays
Description: La désinformation électorale alimentée par l'IA s'intensifie à l'échelle mondiale, exploitant des outils d'IA générative faciles à utiliser pour créer des deepfakes convaincants qui induisent les électeurs en erreur. Cette évolution a simplifié le processus de création de faux contenus, qui avait déjà érodé la confiance dans les élections en minant la confiance du public et en manipulant la perception des électeurs. Des incidents aux États-Unis, en Moldavie, en Slovaquie, au Bangladesh et à Taïwan en ont par exemple été la preuve.
Editor Notes: This incident ID is for collective incident reports that detail and survey worldwide AI disinformation campaigns rather than just nation, state, or local incidents. Such related incident IDs should when possible be marked as a similar incident ID so that we can connect this ID to the others.
Entités
Voir toutes les entitésAlleged: Unknown deepfake creators , OpenAI et Google developed an AI system deployed by Russian government , Political operatives , Political consultants et Chinese Communist Party, which harmed Voters , Public trust , Political figures , General public , Electoral integrity , Democracy et Civic society.
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.1. Disinformation, surveillance, and influence at scale
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport
LONDON (AP) --- Artificial intelligence is supercharging the threat of election disinformation worldwide, making it easy for anyone with a smartphone and a devious imagination to create fake -- but convincing -- content aimed at fooling vot…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Selected by our editors
Manipulated Deepfake Video of Lai Ching-te Endorsing Rivals in Lead-up to January Presidential Elections
· 1 rapport

Deepfake of Long-Deceased Suharto Circulating in Run-up to February 2024 Indonesian Elections
· 1 rapport
Incidents similaires
Selected by our editors
Manipulated Deepfake Video of Lai Ching-te Endorsing Rivals in Lead-up to January Presidential Elections
· 1 rapport

Deepfake of Long-Deceased Suharto Circulating in Run-up to February 2024 Indonesian Elections
· 1 rapport