Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1089: Contenido generado por IA circula ampliamente en Sudán en medio del conflicto civil y el vacío de información

Descripción:
Traducido por IA
Supuestas falsificaciones profundas generadas por IA han circulado ampliamente en las redes sociales sudanesas durante el conflicto actual, supuestamente difundiendo afirmaciones falsas, suplantando la identidad de figuras públicas y distorsionando el discurso político. Los incidentes reportados incluyen videos y audios inventados utilizados para engañar o satirizar, algunos de los cuales generaron interés entre periodistas y funcionarios. Los observadores advierten que las deficientes herramientas de detección y la escasa moderación podrían estar facilitando la manipulación de la confianza pública.
Editor Notes: This incident ID covers multiple reported uses of AI-generated disinformation in Sudan's civil conflict. (1) In April 2023, an alleged AI-generated voice recording falsely attributed to U.S. Ambassador John Godfrey circulated online, reportedly suggesting a plot to impose secularism. See Incident 1088 for the specific archive on this incident. (2) In August 2023, a TikTok campaign under "The Voice of Sudan" purportedly used voice-cloning tools to simulate former President Omar al-Bashir, with recordings allegedly repurposed from a Sudanese commentator's livestreams. For the specific archive on this one, see Incident 1087. (3) In September 2023, tech-savvy Sudanese individuals reportedly used deepfake tools to create satirical videos, including one showing RSF leader Hemedti singing; some content was later framed as serious disinformation. (4) In October 2023, BBC investigators documented the Bashir impersonation campaign as a prominent example of synthetic media use, which forms the backbone of Incident 1087. (5) In March 2024, AI-generated audio was allegedly used to simulate the Sudanese Armed Forces commander ordering attacks on civilians; an alleged separate deepfake recording depicted a fabricated RSF-Freedom and Change coalition meeting discussing a coup. (6) Also in March 2024, Sudanese Armed Forces supporters reportedly cast doubt on genuine recordings of Hemedti by claiming they were AI-generated, an example of the liar's dividend. (7) In April 2024, an AI-generated image of a building purportedly bombed by the SAF went viral, reportedly misleading many political figures. Each of these incidents may form their own discrete incident IDs; this incident ID is a hub. The initial report that forms the backbone of this archive was published 10/23/2024; it was added to the database on 05/31/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology developers y Unknown deepfake technology developers developed an AI system deployed by Various actors aligned with Sudanese factions, which harmed Truth , Political leaders of Sudan , Journalists of Sudan y General public of Sudan.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , Unknown deepfake technology y Social media

Estadísticas de incidentes

ID
1089
Cantidad de informes
1
Fecha del Incidente
2024-10-23
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
El Deepfake es un arma poderosa en la guerra en Sudán
El Deepfake es un arma poderosa en la guerra en Sudán

El Deepfake es un arma poderosa en la guerra en Sudán

africanarguments.org

El Deepfake es un arma poderosa en la guerra en Sudán
africanarguments.org · 2024
Traducido por IA

En abril de 2024, la imagen de un edificio envuelto en llamas se viralizó en Facebook en Sudán. La imagen fue ampliamente compartida con subtítulos que afirmaban que el edificio formaba parte de la Universidad Al-Jazeera en la ciudad de Wad…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors
Purported AI-Generated Audio Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 informes
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 informes
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Chinese tech workers outraged by surveillance tool that flags employees who look likely to quit

Feb 2022 · 4 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
Purported AI-Generated Audio Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 informes
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 informes
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Chinese tech workers outraged by surveillance tool that flags employees who look likely to quit

Feb 2022 · 4 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c