Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1094: Al menos 294 supuestos vídeos musicales generados por IA muestran a celebridades elogiando a Ibrahim Traoré de Burkina Faso.

Traducido por IA
Descripción:
Traducido por IA
Entre marzo y mayo de 2025, se publicaron al menos 294 vídeos musicales deepfake, supuestamente generados por IA, en 127 canales de YouTube, que acumularon más de 8,6 millones de visualizaciones a finales de mayo. Los vídeos muestran a celebridades internacionales (como Beyoncé, Rihanna, R. Kelly, Selena Gomez, Eminem y Justin Bieber) elogiando al presidente burkinés Ibrahim Traoré y apoyando el régimen militar.
Editor Notes: This incident is part of a cluster of reported deepfake videos circulated online to promote Ibrahim Traoré’s leadership, all of which are seemingly contributing to a wider disinformation campaign linked to pro-junta sentiment. The cluster seems to have arisen in March 2025 and continued through to at least the end of May 2025. See also Incident 1091 for a 2023 deepfake incident involving similar themes.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology y Unknown deepfake technology developer developed an AI system deployed by Unknown actors y Pro-Ibrahim Traoré information ecosystem, which harmed Selena Gomez , Rihanna , R. Kelly , Justin Bieber , General public of Burkina Faso , Eminem y Beyoncé.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , YouTube , Unknown deepfake technology y Social media

Estadísticas de incidentes

ID
1094
Cantidad de informes
1
Fecha del Incidente
2025-03-02
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceCientos de vídeos musicales deepfake celebran al presidente de Burkina Faso… ¿por qué?
Cientos de vídeos musicales deepfake celebran al presidente de Burkina Faso… ¿por qué?

Cientos de vídeos musicales deepfake celebran al presidente de Burkina Faso… ¿por qué?

observers.france24.com

Cientos de vídeos musicales deepfake celebran al presidente de Burkina Faso… ¿por qué?
observers.france24.com · 2025
Traducido por IA

¿Qué tienen en común Beyoncé, Rihanna, R. Kelly, Selena Gomez y Eminem, además de ser cantantes mundialmente famosos? Todos ellos también parecen haber grabado una versión de un éxito llamado "God Protect Ibrahim Traoré" y la han publicado …

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors

Purported Synthesia Avatars Used in Alleged Pro-Junta Deepfake Video Supporting Ibrahim Traoré in Burkina Faso

Jan 2023 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 informes
Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 informes
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 30 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors

Purported Synthesia Avatars Used in Alleged Pro-Junta Deepfake Video Supporting Ibrahim Traoré in Burkina Faso

Jan 2023 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 informes
Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 informes
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 30 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 9427ecd