Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5282

Incidents associés

Incident 10873 Rapports
Campaign Featuring Purported AI-Generated Audio Attributed to Omar al-Bashir Spreads During Sudanese Conflict

Loading...
Le Deepfake est une arme puissante dans la guerre au Soudan
africanarguments.org · 2024

En avril 2024, l'image d'un bâtiment en flammes est devenue virale sur Facebook au Soudan. L'image a été largement partagée, accompagnée de légendes affirmant que le bâtiment faisait partie de l'université Al-Jazeera de la ville de Wad Madani et que l'armée soudanaise l'avait bombardé. De nombreux dirigeants politiques et personnalités publiques ont été victimes de cette image et l'ont partagée.

Ceci n'était cependant pas un cas isolé. Alors que le conflit entre l'armée soudanaise et les Forces de soutien rapide, un groupe paramilitaire rebelle, se poursuit, les réseaux sociaux sont devenus un champ de bataille alternatif où les deepfakes générés par l'IA sont largement utilisés pour diffuser de fausses informations et gagner de nouveaux sympathisants. Cette tendance représente une menace sérieuse pour ce pays d'Afrique du Nord-Est, qui a cruellement besoin d'un écosystème informationnel sain.

L'IA a été utilisée pour générer de fausses vidéos dès les premiers jours de la guerre en cours. En août 2023, le Daily Mail a identifié une vidéo de l'ambassadeur des États-Unis au Soudan déclarant que les États-Unis avaient un plan pour réduire l'influence de l'islam dans le pays.

En octobre 2023, une enquête de la BBC a révélé une campagne utilisant l'IA pour se faire passer pour l'ancien dirigeant soudanais, Omar el-Béchir, et qui avait été vue des centaines de milliers de fois sur TikTok.

En mars 2024, le compte X d'un présentateur de télévision et de radio a partagé un enregistrement attribué au chef des forces armées soudanaises ordonnant le massacre de civils, le déploiement de tireurs d'élite et l'occupation de bâtiments. Cet enregistrement, créé par l'IA, a été visionné par 230 000 personnes et partagé par des centaines de personnes, dont des personnalités politiques soudanaises connues.

De plus, en septembre 2023, des Soudanais férus de technologie et sans affiliation politique évidente ont commencé à utiliser les technologies deepfake pour créer du contenu satirique. Par exemple, une chanson initialement publiée pour soutenir les forces armées soudanaises a été reproduite en tant que deepfake. On y voit le chef des RSF, Mohamed Hamdan Dagalo (alias Hemedti), chanter la chanson aux côtés d'un de ses officiers supérieurs. La chanson a été vue des milliers de fois. Si les spectateurs n'ont pas manqué le côté humoristique de la chanson modifiée, dans d'autres cas, ce contenu s'est transformé en désinformation. En mars 2024, un enregistrement créé par l'IA a montré une réunion secrète entre les chefs de la milice RSF et quelques dirigeants de la coalition Liberté et Changement discutant d'un plan de coup d'État militaire, bien que l'enregistrement ne soit pas authentique, il a été partagé le même mois par des journalistes connus et même la télévision nationale avant d'être supprimé plus tard. Obai Alsadig, l'auteur de l'enregistrement, m'a confié que celui-ci était « sarcastique, avec des dialogues faibles et des faux » et qu'il « voulait démontrer au public que créer de tels faux enregistrements n'est pas difficile ».

Dans le cadre de la guerre psychologique, les partisans des forces armées soudanaises ont lancé une campagne visant à jeter le doute sur les enregistrements authentifiés de Hemedti, affirmant à tort qu'ils avaient tous été créés par une intelligence artificielle et qu'il était mort, alors même qu'une analyse indépendante a révélé, avec une grande certitude, que ces enregistrements sont exacts.

Plusieurs efforts ont été déployés pour lutter contre les contenus de désinformation deep fake dont le siège est à Khartoum, Beam Reports, la seule organisation soudanaise de vérification des faits vérifiée par l'organisation internationale de vérification des faits, et qui vérifie les contenus au Soudan depuis 2023. L'organisation traque les deep fakes au Soudan et a publié une analyse à ce sujet.

Bien que la technologie deepfake soit utilisée sur les réseaux sociaux à des fins trompeuses, nous ne pouvons pas dire que son utilisation ait augmenté de manière significative au cours des six derniers mois, en particulier dans le contexte du Soudan. Cependant, il est à noter que du contenu audio trompeur a également été généré à l'aide de l'IA et attribué à des personnes actives dans les affaires soudanaises. Marsad Beam, ​​une division au sein de Beam Report chargée de surveiller et de vérifier les fausses informations virales, a travaillé sur Un rapport dans lequel l'authenticité de ce contenu a été vérifiée, m'a été expliqué par Beam Reports par courriel.

Lors d'un séminaire en ligne organisé par l'UNESCO en mai, Beam Reports a souligné les défis posés par l'utilisation de l'IA ces derniers mois.

« Après une année de lutte contre la désinformation en ligne, Beam Reports a souligné que l'absence de reportages sur le terrain conduit à une augmentation de la mésinformation et de la désinformation », a déclaré l'UNESCO dans un communiqué après l'événement. « Ce phénomène est encore amplifié et compliqué par le recours croissant à l'intelligence artificielle générative dans la production et la diffusion de la désinformation. et les discours de haine.

Des personnes dotées de compétences techniques avancées ont également contribué à la vérification des faits sur les contenus viraux, m'a expliqué Mohanad Elbalal, un militant soudanais basé au Royaume-Uni qui vérifie volontairement les faits sur les réseaux sociaux. « Si je pense qu'un clip est un deepfake, je fais une recherche d'image inversée pour essayer de trouver une correspondance, car ces deepfakes IA sont généralement reproduits à partir d'un modèle, ce qui fait que des images similaires sont susceptibles d'apparaître. » Je rechercherai tout ce qui est identifiable dans la vidéo, comme le faux logo de chaîne d'information utilisé dans le deepfake.

« La principale limite à la détection des deepfakes est le manque d'accès à des outils fiables », m'a expliqué par courriel Shirin Anlen, technologue des médias chez Witness. « Bien que des recherches inspirantes soient menées dans ce domaine, elles sont souvent inaccessibles au grand public et nécessitent une expertise technique poussée. Les outils de détection accessibles au public peuvent être difficiles à comprendre en raison du manque de transparence et de clarté des résultats, laissant les utilisateurs dans l'ignorance, surtout lorsqu'ils génèrent des faux positifs, ce qui est assez fréquent », a-t-elle expliqué.

« D'un point de vue technique, ces outils dépendent encore fortement de la qualité et de la diversité des données d'entraînement. Cette dépendance crée des difficultés, notamment en ce qui concerne les biais liés à certains types de manipulation, à des personas ou à la qualité des fichiers. « Dans nos travaux, nous avons constaté que la compression et la résolution des fichiers jouent un rôle important dans la précision de la détection », a-t-elle ajouté.

Le problème des fausses nouvelles générées par l'IA au Soudan pourrait s'intensifier à mesure que la technologie progresse.

« Jusqu'à présent, une grande partie des deepfakes générés par l'IA et diffusés dans le pays pouvaient facilement être identifiés comme faux en raison de leur mauvaise qualité, ce qui pourrait être attribué au manque de données formées sur les dialectes soudanais », a partagé avec moi Mohamed Sabry, chercheur soudanais en IA à l'Université de Dublin.* *Mais cela changera à l'avenir si des acteurs malveillants décident d'investir davantage de temps et d'argent dans l'utilisation de technologies d'IA avancées pour produire leurs contenus, a-t-il ajouté.

« Dans les langues à faibles ressources, comme les dialectes soudanais, les modèles de clonage vocal sont moins efficaces et facilement identifiables. Le ton robotique est assez perceptible même pour les auditeurs inexpérimentés », a déclaré Mohamed. Cependant, « de nombreux efforts sont déployés pour relever les défis liés aux ensembles de données linguistiques à faibles ressources. De plus, l'impressionnante généralisabilité des réseaux neuronaux profonds, lorsqu'ils sont entraînés sur des dialectes et des domaines proches de l'arabe, est remarquable.

Si les faux contenus susceptibles d'inciter à la violence dans le climat politique instable du Soudan constituent une menace majeure, il existe également un risque de dividende du menteur parmi les politiciens locaux.

En juin 2023, Mubarak Ardol, un homme politique soudanais, a tweeté (https://x.com/MubarakArdol/status/1680602263352475650) que l'enregistrement vocal de sa conversation téléphonique avec un autre homme politique se moquant du chef de l'armée et de sa volonté d'accepter toute offre de la milice RSF était inexact et avait été réalisé à l'aide d'un logiciel d'IA. Il a affirmé que le créateur de l'enregistrement s'était basé sur des échantillons de sa voix disponibles sur Internet.

Ce phénomène a Un impact négatif important, car cela crée un climat de scepticisme qui pousse les citoyens à remettre en question même les informations fiables générées par l'IA.

Les plateformes de médias sociaux ont commencé à prendre des mesures strictes contre les contenus deepfakes, mais tous ces contenus restent accessibles, ce qui montre que ces politiques ne sont pas appliquées dans des pays comme le Soudan, probablement en raison d'un manque de modérateurs de contenu connaissant le contexte local.

YouTube m'a fait part de sa politique sur les deepfakes, qui interdit ce type de désinformation. Cette politique souligne que « les contenus manipulés techniquement qui induisent les utilisateurs en erreur et peuvent présenter un risque grave de préjudice grave ne sont pas autorisés sur YouTube ».

De plus, la politique exige que « les créateurs divulguent lorsqu'ils ont créé ou modifié du contenu synthétique réaliste », et que « nous appliquerons un label de transparence à ces contenus afin que les utilisateurs disposent d'un contexte pertinent ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd