Incidente 1096: Un supuesto video generado por IA muestra a Ibrahim Traoré de Burkina Faso pronunciando un discurso sobre la explotación occidental.
Descripción: Un video, presuntamente publicado el 25 de mayo de 2025, supuestamente mostraba al presidente de Burkina Faso, Ibrahim Traoré, pronunciando un enérgico discurso contra los medios occidentales y la explotación. El video, que supuestamente utilizaba imágenes y audio generados por IA, se compartió ampliamente en redes sociales. A pesar de contener advertencias que lo identificaban como ficticio, el video circuló y algunos espectadores lo interpretaron como auténtico.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar variables. In addition to 1091, please also refer to 1283.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown voice cloning technology developers y Unknown deepfake technology developers developed an AI system deployed by Univers Inspirant y Pro-Ibrahim Traoré information ecosystem, which harmed Truth , General public of Burkina Faso , Epistemic integrity , General public y National security and intelligence stakeholders.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology y Unknown deepfake technology
Estadísticas de incidentes
ID
1096
Cantidad de informes
1
Fecha del Incidente
2025-05-25
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
Recientemente, ha circulado un video en diversas plataformas de internet que supuestamente muestra un discurso del oficial militar y presidente de Burkina Faso, Ibrahim Traoré, bajo el título: "Protesta contra la falsa representación de Áfr…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?