Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1087: Una campaña con un supuesto audio generado por IA atribuido a Omar al-Bashir se difunde durante el conflicto sudanés

Descripción:
Traducido por IA
A finales de agosto de 2023, un canal de TikTok llamado La Voz de Sudán circuló supuestos audios generados por IA que supuestamente eran grabaciones filtradas del expresidente sudanés Omar al-Bashir. Expertos identificaron varias grabaciones como falsificaciones de voz, derivadas de transmisiones no relacionadas de un comentarista político. La campaña surgió durante la guerra civil de Sudán y parecía diseñada para influir en la percepción política. TikTok posteriormente eliminó la cuenta por infringir las políticas de medios sintéticos.
Editor Notes: Although major reporting on this incident appeared in October 2023, available evidence indicates that the AI-generated audio impersonations of Omar al-Bashir began circulating on TikTok in late August 2023. The incident date has therefore been set as as 08/20/2023 to reflect the likely onset of the campaign. This date is approximate and based on the earliest known activity referenced in the BBC's 10/04/2023 investigation. It was added to the AI Incident Database on 05/31/2025. Please refer to Incident 1089 for wider context.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology developer y Unknown deepfake technology developer developed an AI system deployed by The Voice of Sudan, which harmed Omar al-Bashir y General public of Sudan.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology y Unknown deepfake technology

Estadísticas de incidentes

ID
1087
Cantidad de informes
3
Fecha del Incidente
2023-08-20
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+1
IA: La tecnología de clonación de voz surge en la guerra civil de Sudán
El Deepfake es un arma poderosa en la guerra en Sudán
IA: La tecnología de clonación de voz surge en la guerra civil de Sudán

IA: La tecnología de clonación de voz surge en la guerra civil de Sudán

bbc.com

Una campaña de suplantación de identidad del exlíder de Sudán impulsada por IA se vuelve viral en TikTok

Una campaña de suplantación de identidad del exlíder de Sudán impulsada por IA se vuelve viral en TikTok

dig.watch

El Deepfake es un arma poderosa en la guerra en Sudán

El Deepfake es un arma poderosa en la guerra en Sudán

africanarguments.org

IA: La tecnología de clonación de voz surge en la guerra civil de Sudán
bbc.com · 2023
Traducido por IA

Una campaña que utiliza inteligencia artificial para suplantar la identidad de Omar al-Bashir, exlíder de Sudán, ha recibido cientos de miles de visualizaciones en TikTok, añadiendo confusión en línea a un país desgarrado por la guerra civi…

Una campaña de suplantación de identidad del exlíder de Sudán impulsada por IA se vuelve viral en TikTok
dig.watch · 2023
Traducido por IA

En un informe reciente de la BBC, una campaña anónima que emplea inteligencia artificial para hacerse pasar por el exlíder de Sudán, Omar al-Bashir, ha ganado amplia atención en TikTok, amplificando la confusión en línea en un país que ya e…

El Deepfake es un arma poderosa en la guerra en Sudán
africanarguments.org · 2024
Traducido por IA

En abril de 2024, la imagen de un edificio envuelto en llamas se viralizó en Facebook en Sudán. La imagen fue ampliamente compartida con subtítulos que afirmaban que el edificio formaba parte de la Universidad Al-Jazeera en la ciudad de Wad…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 informes
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 informes
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 informes
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 informes
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f196a6b