Incidente 1094: Al menos 294 supuestos vídeos musicales generados por IA muestran a celebridades elogiando a Ibrahim Traoré de Burkina Faso.
Descripción: Entre marzo y mayo de 2025, se publicaron al menos 294 vídeos musicales deepfake, supuestamente generados por IA, en 127 canales de YouTube, que acumularon más de 8,6 millones de visualizaciones a finales de mayo. Los vídeos muestran a celebridades internacionales (como Beyoncé, Rihanna, R. Kelly, Selena Gomez, Eminem y Justin Bieber) elogiando al presidente burkinés Ibrahim Traoré y apoyando el régimen militar.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar themes. See also Incident 1283: Purported AI-Enabled Pro-Russian Influence Campaign Centered on Burkina Faso's Ibrahim Traoré and Disseminated Across African Media.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown voice cloning technology y Unknown deepfake technology developers developed an AI system deployed by Unknown actors y Pro-Ibrahim Traoré information ecosystem, which harmed Truth , Selena Gomez , Rihanna , R. Kelly , Justin Bieber , General public of Burkina Faso , General public , Epistemic integrity , Eminem , Beyoncé y National security and intelligence stakeholders.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , YouTube , Unknown deepfake technology y Social media
Estadísticas de incidentes
ID
1094
Cantidad de informes
1
Fecha del Incidente
2025-03-02
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.1. Disinformation, surveillance, and influence at scale
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
¿Qué tienen en común Beyoncé, Rihanna, R. Kelly, Selena Gomez y Eminem, además de ser cantantes mundialmente famosos? Todos ellos también parecen haber grabado una versión de un éxito llamado "God Protect Ibrahim Traoré" y la han publicado …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

