Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1095: Una supuesta campaña de deepfakes vinculada a Rusia atribuye erróneamente proyectos de infraestructura a Ibrahim Traoré de Burkina Faso.

Traducido por IA
Descripción:
Traducido por IA
Se ha reportado una oleada de contenido mediático engañoso, supuestamente generado por inteligencia artificial, que promueve al líder de la junta militar de Burkina Faso, Ibrahim Traoré. Los investigadores describieron videos que atribuyen proyectos de desarrollo a Traoré, presuntamente parte de una campaña de medios vinculados a Rusia para apoyar a los regímenes de la junta en el Sahel. Los expertos advirtieron sobre los efectos desestabilizadores de la campaña y su potencial para normalizar el régimen militar y la influencia ideológica extranjera.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar themes. See also Incident 1283: Purported AI-Enabled Pro-Russian Influence Campaign Centered on Burkina Faso's Ibrahim Traoré and Disseminated Across African Media.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developers developed an AI system deployed by Pro-Russian influencers , Pro-Kremlin actors , Pro-Ibrahim Traoré information ecosystem y Government of Russia, which harmed Truth , General public of West Africa , General public of Burkina Faso , General public , Epistemic integrity y National security and intelligence stakeholders.
Sistemas de IA presuntamente implicados: Unknown deepfake technology y Social media

Estadísticas de incidentes

ID
1095
Cantidad de informes
1
Fecha del Incidente
2025-05-30
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.1. Disinformation, surveillance, and influence at scale

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

+1
Rusia utiliza información falsa para apoyar a las juntas africanas
Loading...
Rusia utiliza información falsa para apoyar a las juntas africanas

Rusia utiliza información falsa para apoyar a las juntas africanas

eurasiareview.com

Loading...
Rusia utiliza información falsa para apoyar a las juntas africanas
eurasiareview.com · 2025
Traducido por IA

En toda África Occidental se ha vuelto difícil evitar la avalancha de videos virales, memes y publicaciones en redes sociales que glorifican a los gobernantes militares de Burkina Faso, Mali y Níger.

Los expertos afirman que se ha desatado …

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors

Purported Synthesia Avatars Used in Alleged Pro-Junta Deepfake Video Supporting Ibrahim Traoré in Burkina Faso

Jan 2023 · 1 informe
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors

Purported Synthesia Avatars Used in Alleged Pro-Junta Deepfake Video Supporting Ibrahim Traoré in Burkina Faso

Jan 2023 · 1 informe

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 227e5b7