Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1087: Une campagne mettant en vedette un audio prétendument généré par l'IA attribué à Omar el-Béchir se propage pendant le conflit soudanais

Description:
Traduit par IA
Fin août 2023, une chaîne TikTok appelée « La Voix du Soudan » a diffusé des enregistrements audio prétendument générés par l'IA, présentés comme des enregistrements fuités de l'ancien président soudanais Omar el-Béchir. Des experts ont identifié plusieurs enregistrements comme des inventions clonées, issues d'émissions sans rapport avec l'affaire, d'un commentateur politique. La campagne a émergé pendant la guerre civile au Soudan et semblait destinée à influencer les perceptions politiques. TikTok a ensuite supprimé le compte pour violation des règles relatives aux médias synthétiques.
Editor Notes: Although major reporting on this incident appeared in October 2023, available evidence indicates that the AI-generated audio impersonations of Omar al-Bashir began circulating on TikTok in late August 2023. The incident date has therefore been set as as 08/20/2023 to reflect the likely onset of the campaign. This date is approximate and based on the earliest known activity referenced in the BBC's 10/04/2023 investigation. It was added to the AI Incident Database on 05/31/2025. Please refer to Incident 1089 for wider context.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown voice cloning technology developer et Unknown deepfake technology developer developed an AI system deployed by The Voice of Sudan, which harmed Omar al-Bashir et General public of Sudan.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology et Unknown deepfake technology

Statistiques d'incidents

ID
1087
Nombre de rapports
3
Date de l'incident
2023-08-20
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+1
IA : la technologie de clonage vocal émerge dans la guerre civile au Soudan
Le Deepfake est une arme puissante dans la guerre au Soudan
IA : la technologie de clonage vocal émerge dans la guerre civile au Soudan

IA : la technologie de clonage vocal émerge dans la guerre civile au Soudan

bbc.com

Une campagne d'usurpation d'identité de l'ancien dirigeant soudanais, pilotée par l'IA, devient virale sur TikTok

Une campagne d'usurpation d'identité de l'ancien dirigeant soudanais, pilotée par l'IA, devient virale sur TikTok

dig.watch

Le Deepfake est une arme puissante dans la guerre au Soudan

Le Deepfake est une arme puissante dans la guerre au Soudan

africanarguments.org

IA : la technologie de clonage vocal émerge dans la guerre civile au Soudan
bbc.com · 2023
Traduit par IA

Une campagne utilisant l'intelligence artificielle pour se faire passer pour Omar el-Béchir, l'ancien dirigeant du Soudan, a été vue des centaines de milliers de fois sur TikTok, semant la confusion en ligne dans un pays déchiré par la guer…

Une campagne d'usurpation d'identité de l'ancien dirigeant soudanais, pilotée par l'IA, devient virale sur TikTok
dig.watch · 2023
Traduit par IA

Dans un récent rapport de la BBC,  une campagne anonyme utilisant l'intelligence artificielle pour se faire passer pour l'ancien dirigeant du Soudan, Omar el-Béchir, a attiré une large attention sur TikTok, amplifiant la confusion en ligne …

Le Deepfake est une arme puissante dans la guerre au Soudan
africanarguments.org · 2024
Traduit par IA

En avril 2024, l'image d'un bâtiment en flammes est devenue virale sur Facebook au Soudan. L'image a été largement partagée, accompagnée de légendes affirmant que le bâtiment faisait partie de l'université Al-Jazeera de la ville de Wad Mada…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors
Purported AI-Generated Audio Disinformation Reportedly Attributed to U.S. Ambassador John Godfrey Circulates in Sudan

Sudan's Islamists use online networks and AI to make their move: Social media accounts spread claims hardliners will seize power as democracy leaders flee during Western evacuation just like the Taliban did in Afghanistan

Apr 2023 · 2 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes

Fake Obama created using AI tool to make phoney speeches

Jul 2017 · 29 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f196a6b