Incident 1096: Une vidéo prétendument générée par l'IA montre Ibrahim Traoré du Burkina Faso prononçant un discours sur l'exploitation occidentale
Description: Une vidéo, publiée le 25 mai 2025, prétendait montrer le président du Burkina Faso, Ibrahim Traoré, prononçant un discours virulent contre les médias occidentaux et leur exploitation. La vidéo, qui utilisait prétendument des images et du son générés par l'IA, a été largement partagée sur les réseaux sociaux. Malgré des avertissements la désignant comme fictive, elle aurait circulé et été interprétée comme authentique par certains spectateurs.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar variables. In addition to 1091, please also refer to 1283.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: Unknown voice cloning technology developers et Unknown deepfake technology developers developed an AI system deployed by Univers Inspirant et Pro-Ibrahim Traoré information ecosystem, which harmed Truth , General public of Burkina Faso , Epistemic integrity , General public et National security and intelligence stakeholders.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology et Unknown deepfake technology
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport
Loading...
Récemment, une vidéo a circulé sur plusieurs plateformes internet, prétendant montrer un discours de l'officier militaire et président du Burkina Faso, Ibrahim Traoré, intitulé : « Contestation de la fausse représentation de l'Afrique par l…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?