Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1089: Au Soudan, un contenu prétendument généré par l'IA circule largement dans un contexte de conflit civil et de vide informationnel.

Description:
Traduit par IA
Des deepfakes prétendument générés par l'IA ont largement circulé sur les réseaux sociaux soudanais pendant le conflit en cours, diffusant de fausses informations, usurpant l'identité de personnalités publiques et déformant le discours politique. Parmi les incidents signalés figurent des vidéos et des enregistrements audio fabriqués à des fins de tromperie ou de satire, dont certains ont suscité l'intérêt des journalistes et des responsables. Des observateurs avertissent que la faiblesse des outils de détection et une modération limitée pourraient favoriser la manipulation de la confiance du public.
Editor Notes: This incident ID covers multiple reported uses of AI-generated disinformation in Sudan's civil conflict. (1) In April 2023, an alleged AI-generated voice recording falsely attributed to U.S. Ambassador John Godfrey circulated online, reportedly suggesting a plot to impose secularism. See Incident 1088 for the specific archive on this incident. (2) In August 2023, a TikTok campaign under "The Voice of Sudan" purportedly used voice-cloning tools to simulate former President Omar al-Bashir, with recordings allegedly repurposed from a Sudanese commentator's livestreams. For the specific archive on this one, see Incident 1087. (3) In September 2023, tech-savvy Sudanese individuals reportedly used deepfake tools to create satirical videos, including one showing RSF leader Hemedti singing; some content was later framed as serious disinformation. (4) In October 2023, BBC investigators documented the Bashir impersonation campaign as a prominent example of synthetic media use, which forms the backbone of Incident 1087. (5) In March 2024, AI-generated audio was allegedly used to simulate the Sudanese Armed Forces commander ordering attacks on civilians; an alleged separate deepfake recording depicted a fabricated RSF-Freedom and Change coalition meeting discussing a coup. (6) Also in March 2024, Sudanese Armed Forces supporters reportedly cast doubt on genuine recordings of Hemedti by claiming they were AI-generated, an example of the liar's dividend. (7) In April 2024, an AI-generated image of a building purportedly bombed by the SAF went viral, reportedly misleading many political figures. Each of these incidents may form their own discrete incident IDs; this incident ID is a hub. The initial report that forms the backbone of this archive was published 10/23/2024; it was added to the database on 05/31/2025.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown voice cloning technology developers et Unknown deepfake technology developers developed an AI system deployed by Various actors aligned with Sudanese factions, which harmed Truth , Political leaders of Sudan , Journalists of Sudan et General public of Sudan.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology , Unknown deepfake technology et Social media

Statistiques d'incidents

ID
1089
Nombre de rapports
1
Date de l'incident
2024-10-23
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Le Deepfake est une arme puissante dans la guerre au Soudan
Le Deepfake est une arme puissante dans la guerre au Soudan

Le Deepfake est une arme puissante dans la guerre au Soudan

africanarguments.org

Le Deepfake est une arme puissante dans la guerre au Soudan
africanarguments.org · 2024
Traduit par IA

En avril 2024, l'image d'un bâtiment en flammes est devenue virale sur Facebook au Soudan. L'image a été largement partagée, accompagnée de légendes affirmant que le bâtiment faisait partie de l'université Al-Jazeera de la ville de Wad Mada…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Chinese tech workers outraged by surveillance tool that flags employees who look likely to quit

Feb 2022 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Chinese tech workers outraged by surveillance tool that flags employees who look likely to quit

Feb 2022 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f196a6b