Incidente 1095: Una supuesta campaña de deepfakes vinculada a Rusia atribuye erróneamente proyectos de infraestructura a Ibrahim Traoré de Burkina Faso.
Descripción: Se ha reportado una oleada de contenido mediático engañoso, supuestamente generado por inteligencia artificial, que promueve al líder de la junta militar de Burkina Faso, Ibrahim Traoré. Los investigadores describieron videos que atribuyen proyectos de desarrollo a Traoré, presuntamente parte de una campaña de medios vinculados a Rusia para apoyar a los regímenes de la junta en el Sahel. Los expertos advirtieron sobre los efectos desestabilizadores de la campaña y su potencial para normalizar el régimen militar y la influencia ideológica extranjera.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar themes. See also Incident 1283: Purported AI-Enabled Pro-Russian Influence Campaign Centered on Burkina Faso's Ibrahim Traoré and Disseminated Across African Media.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developers developed an AI system deployed by Pro-Russian influencers , Pro-Kremlin actors , Pro-Ibrahim Traoré information ecosystem y Government of Russia, which harmed Truth , General public of West Africa , General public of Burkina Faso , General public , Epistemic integrity y National security and intelligence stakeholders.
Sistemas de IA presuntamente implicados: Unknown deepfake technology y Social media
Estadísticas de incidentes
ID
1095
Cantidad de informes
1
Fecha del Incidente
2025-05-30
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.1. Disinformation, surveillance, and influence at scale
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
En toda África Occidental se ha vuelto difícil evitar la avalancha de videos virales, memes y publicaciones en redes sociales que glorifican a los gobernantes militares de Burkina Faso, Mali y Níger.
Los expertos afirman que se ha desatado …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?