Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5277

Incidents associés

Incident 10873 Rapports
Campaign Featuring Purported AI-Generated Audio Attributed to Omar al-Bashir Spreads During Sudanese Conflict

Loading...
IA : la technologie de clonage vocal émerge dans la guerre civile au Soudan
bbc.com · 2023

Une campagne utilisant l'intelligence artificielle pour se faire passer pour Omar el-Béchir, l'ancien dirigeant du Soudan, a été vue des centaines de milliers de fois sur TikTok, semant la confusion en ligne dans un pays déchiré par la guerre civile.

Depuis fin août, un compte anonyme publie ce qu'il présente comme des « enregistrements divulgués » de l'ex-président. La chaîne a publié des dizaines d'extraits, mais la voix est fausse.

Accusé d'avoir organisé des crimes de guerre et renversé par l'armée en 2019, Béchir n'a pas été vu en public depuis un an et serait gravement malade. Il nie les accusations de crimes de guerre.

Le mystère qui entoure sa localisation ajoute une dose d'incertitude dans un pays en crise depuis le début des combats en avril entre l'armée, actuellement au pouvoir, et la milice rivale des Forces de soutien rapide.

Des campagnes comme celle-ci sont importantes, car elles montrent comment de nouveaux outils peuvent diffuser rapidement et à moindre coût de faux contenus sur les réseaux sociaux, selon les experts.

« C'est la démocratisation de l'accès aux technologies sophistiquées de manipulation audio et vidéo qui m'inquiète le plus », déclare Hany Farid, chercheur en criminalistique numérique à l'Université de Californie à Berkeley, aux États-Unis.

« Des acteurs sophistiqués ont pu déformer la réalité pendant des décennies, mais aujourd'hui, une personne lambda, avec peu ou pas d'expertise technique, peut rapidement et facilement créer de faux contenus. »

Les enregistrements sont publiés sur une chaîne appelée « La Voix du Soudan ». Les messages semblent être un mélange d'anciens extraits de conférences de presse lors de tentatives de coup d'État, de reportages et de plusieurs « enregistrements divulgués » attribués à Béchir. Les messages se font souvent passer pour des enregistrements d'une réunion ou d'une conversation téléphonique, et le son est granuleux, comme on pourrait s'y attendre d'une ligne téléphonique défectueuse.

Pour vérifier leur authenticité, nous avons d'abord consulté une équipe d'experts soudanais de BBC Monitoring. Ibrahim Haithar nous a indiqué qu'ils n'étaient probablement pas récents :

« La voix ressemble à celle de Béchir, mais il est très malade depuis quelques années et je doute qu'il puisse parler aussi clairement. »

Cela ne signifie pas que ce n'est pas lui.

Nous avons également examiné d'autres explications possibles, mais il ne s'agit pas d'un ancien clip qui refait surface et il est peu probable qu'il s'agisse de l'œuvre d'un imitateur.

La preuve la plus concluante provient d'un utilisateur de X, anciennement Twitter.

Il a reconnu le tout premier enregistrement de Bashir publié en août 2023. On y voit apparemment le dirigeant critiquer le commandant de l'armée soudanaise, le général Abdel Fattah Burhan.

L'enregistrement de Bashir correspondait à une diffusion en direct sur Facebook Live deux jours plus tôt par un commentateur politique soudanais populaire, connu sous le nom d'Al Insirafi. Il vivrait aux États-Unis, mais n'a jamais montré son visage devant une caméra.

Les deux voix ne se ressemblent pas particulièrement, mais les scripts sont identiques, et lorsque l'on écoute les deux clips ensemble, ils sont parfaitement synchronisés.

La comparaison des ondes audio révèle des schémas similaires dans la parole et le silence, note M. Farid.

Les preuves suggèrent qu'un logiciel de conversion vocale a été utilisé pour imiter la voix de Bashir. Le logiciel est un outil puissant qui permet de télécharger un extrait audio, puis de le modifier pour obtenir une voix différente.

Après des recherches plus approfondies, une tendance s'est dégagée. Nous avons trouvé au moins quatre autres enregistrements de Béchir, tirés des émissions en direct du même blogueur. Rien ne prouve son implication.

Le compte TikTok est exclusivement politique et nécessite une connaissance approfondie de la situation au Soudan, mais la question de savoir à qui profite cette campagne est sujette à débat. Un argument récurrent est la critique du chef de l'armée, le général Burhan.

L'objectif pourrait être de tromper le public en lui faisant croire que Béchir est apparu pour jouer un rôle dans la guerre. Ou bien la chaîne pourrait chercher à légitimer un point de vue politique particulier en utilisant la voix de l'ancien dirigeant. La nature de cet argument reste floue.

La Voix du Soudan nie avoir induit le public en erreur et affirme n'être affiliée à aucun groupe. Nous avons contacté le compte et avons reçu une réponse par SMS : « Je souhaite faire entendre ma voix et expliquer la réalité que traverse mon pays à ma manière. »

Une tentative d'une telle ampleur visant à se faire passer pour Béchir peut être considérée comme « significative pour la région » et a le potentiel de tromper le public, explique Henry Ajder, dont la série sur BBC Radio 4 a examiné l'évolution des médias synthétiques.

Les experts en IA craignent depuis longtemps que les fausses vidéos et les faux sons n'entraînent une vague de désinformation susceptible de déclencher des troubles et de perturber les élections.

« Ce qui est alarmant, c'est que ces enregistrements pourraient également créer un environnement où beaucoup ne croient même pas aux vrais enregistrements », déclare Mohamed Suliman, chercheur au Civic AI Lab de l'Université Northeastern.

Comment repérer la désinformation audio ?

Comme nous l'avons vu avec cet exemple, il est conseillé de se demander si l'enregistrement semble plausible avant de le partager.

Il est essentiel de vérifier si la source est fiable, mais la vérification audio est difficile, en particulier lorsque le contenu circule sur des applications de messagerie. C'est encore plus difficile en période de troubles sociaux, comme ceux que connaît actuellement le Soudan.

La technologie permettant de créer des algorithmes capables de détecter les sons synthétiques en est encore à ses balbutiements, tandis que celle permettant d'imiter les voix est déjà très avancée.

Contactée par la BBC, TikTok a supprimé le compte, affirmant qu'il enfreignait ses directives concernant la publication de « contenus erronés susceptibles de causer un préjudice important » et ses règles relatives à l'utilisation de médias synthétiques.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd