Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3342

Incidents associés

Incident 60110 Rapports
AI-Generated Fake Audio of Verbal Abuse Incident Circulates of British Labour Leader Keir Starmer

Loading...
Deepfake Audio est un cauchemar politique
wired.com · 2023

Alors que les membres du plus grand parti d’opposition du Royaume-Uni se réunissaient à Liverpool pour la conférence de leur parti – probablement la dernière avant les élections générales au Royaume-Uni – un fichier audio potentiellement explosif a commencé à circuler sur X, anciennement connu sous le nom de Twitter.

L'enregistrement de 25 secondes a été publié par un compte X avec le pseudo « @Leo_Hutz » créé en janvier 2023. Dans le clip, Sir Keir Starmer, le chef du Parti travailliste, est apparemment entendu en train d'insulter à plusieurs reprises un membre du personnel. "J'ai obtenu un enregistrement audio de Keir Starmer insultant verbalement ses collaborateurs lors de la conférence du Parti travailliste", a publié le compte X. "Cet tyran dégoûtant est sur le point de devenir notre prochain Premier ministre."

On ne sait pas si l’enregistrement audio est réel, généré par l’IA ou enregistré à l’aide d’un imitateur. L’organisation britannique de vérification des faits Full Fact a déclaré qu’elle enquêtait toujours. « Au moment où nous en parlons, cela ne peut pas être validé dans un sens ou dans l’autre. Mais certaines caractéristiques indiquent qu’il s’agit d’un faux », déclare Glen Tarman, responsable du plaidoyer et de la politique de Full Fact. "Il y a une phrase qui semble être répétée, plutôt que d'utiliser une intonation différente la deuxième fois qu'elle est utilisée, et il y a quelques problèmes dans le bruit de fond."

Les deepfakes audio apparaissent comme un risque majeur pour le processus démocratique, alors que le Royaume-Uni – et plus de 50 autres pays – se dirigent vers les élections de 2024. La manipulation du contenu audio devient moins chère et plus facile, tandis que les vérificateurs des faits affirment qu'il est difficile de le faire rapidement et définitivement. identifier un enregistrement comme faux. Ces enregistrements pourraient passer des heures, voire des jours, à circuler sur les réseaux sociaux avant d’être démystifiés, et les chercheurs craignent que ce type de contenu deepfake ne crée une atmosphère politique dans laquelle les électeurs ne savent pas à quelles informations ils peuvent se fier.

"Si vous écoutez un extrait sonore ou une vidéo en ligne avec ce germe de doute quant à la réalité de tout cela, cela risque de saper les fondements du débat et la capacité des gens à se sentir informés", déclare Kate Dommett, professeur de politique numérique. à l'Université de Sheffield.

La [politique] sur les médias manipulés de X (https://help.twitter.com/en/rules-and-policies/manipulated-media) stipule que les vidéos ou les audios qui ont été modifiés ou manipulés de manière trompeuse doivent être étiquetés ou supprimés. Ni l’un ni l’autre n’est arrivé à la publication, et X n’a pas répondu à la demande de commentaires de WIRED pour savoir si la plateforme avait enquêté sur l’authenticité de l’enregistrement.

L’équipe de Starmer n’a pas encore commenté. Mais plusieurs députés du parti conservateur au pouvoir ont qualifié l’enregistrement de deepfake. "Il y a un faux enregistrement audio de Keir Starmer qui circule", a déclaré le député Tom Tugendhat sur X. "Les 30 dernières années de la vie publique ont été marquées par un ébranlement catastrophique de la confiance dans les institutions, pour de bonnes et de mauvaises raisons", a déclaré Matt Warman, un autre conservateur. Député, posté. « Mais le deepfake de Sir Keir Starmer d’aujourd’hui est un nouveau plus bas, suralimenté par l’IA et les médias sociaux. La démocratie est réellement menacée : la technologie permettant de vérifier le contenu est essentielle.

L'incident survient une semaine après un scandale survenu dans les dernières heures de la [campagne électorale en Slovaquie](https://www.wired.com/story/slovakias-election-deepfakes-show-ai-is-a-danger-to-democracy /), lorsqu'un enregistrement audio a été diffusé sur Facebook qui semblait montrer le chef du parti d'opposition Slovaquie progressiste parlant de ses projets de truquer les élections. Michal Šimečka a dénoncé cet audio comme étant faux, et le service de vérification des faits de l'AFP a déclaré que l'audio montrait des signes de manipulation. À l’époque, les vérificateurs des faits avaient déclaré qu’ils ne se sentaient pas équipés pour démystifier définitivement les enregistrements audio générés par l’IA.

Les pays du monde entier ont du mal à réagir aux enregistrements audio considérés comme faux. Les enregistrements présumés de deepfake ont semé la confusion au Soudan et en [Inde](https://restofworld.org/2023/indian- politicien-fuite-audio-ai-deepfake/). Au Soudan, des « fuites d’enregistrements » de l’ancien dirigeant Omar al-Bashir, qui n’a pas été vu en public depuis un an, ont été soupçonnées d’avoir été manipulées. En Inde, un enregistrement audio a été diffusé dans lequel Palanivel Thiagarajan, un homme politique de l'opposition, aurait accusé ses collègues membres du parti de corruption. Thiagarajan a déclaré que l'enregistrement avait été généré par une machine.

Le problème des médias deepfakes faciles à créer est aggravé par le fait que les outils de détection ne sont pas largement disponibles, explique Sam Gregory, directeur exécutif de Witness, un groupe de défense des droits humains qui se concentre sur la technologie. « Il n’existe pas de norme commune pour l’ajout de filigranes ou de signaux de provenance aux deepfakes audio générés par l’IA, juste des efforts déployés par des entreprises individuelles. Il ne sert à rien d’avoir un outil pour détecter si le contenu est généré par une seule entreprise alors que le même outil donnerait un faux négatif sur un faux audio créé par l’un des nombreux autres outils du marché.

L'incapacité de prouver de manière définitive l'authenticité d'un enregistrement audio ajoute au flou qui sera également exploité par les politiciens présents dans l'audio réel, ajoute Gregory. « Les politiciens affirmeront que l’audio réel est truqué et feront pression sur les vérificateurs des faits pour réfuter cette affirmation, alors qu’ils n’ont pas les outils ou la capacité rapide de le faire. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd