Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3321

Incidents associés

Incident 60110 Rapports
AI-Generated Fake Audio of Verbal Abuse Incident Circulates of British Labour Leader Keir Starmer

Loading...
Le chef de l’opposition britannique visé par une fausse diffamation audio générée par l’IA
therecord.media · 2023

Un clip audio publié dimanche sur les réseaux sociaux, prétendant montrer le chef de l’opposition britannique Keir Starmer insultant verbalement son personnel, a été démystifié comme étant généré par l’IA par des analyses du secteur privé et du gouvernement britannique.

L'audio de Keir Starmer a été posté sur X (anciennement Twitter) par un compte pseudonyme dimanche matin, jour d'ouverture de la conférence du parti travailliste à Liverpool. Le compte affirmait que le clip, qui a maintenant été visionné plus de 1,4 million de fois, était authentique et que son authenticité avait été [corroborée](https : //twitter.com/leo_hutz/status/1711065591644143630) par un ingénieur du son.

Ben Colman, co-fondateur et PDG de Reality Defender – une entreprise de détection de deepfake – a contesté cette évaluation lorsqu'il a été contacté par Recorded Future News : « Nous avons constaté que l'audio était probablement manipulé à 75 % sur la base d'une copie d'une copie qui circulait. (un transcodage).

« Comme nous n'avons pas la vérité terrain, nous donnons un score de probabilité (dans ce cas 75 %) et jamais un score définitif (« c'est faux » ou « c'est réel »), en penchant beaucoup plus vers « c'est probable ». manipulé que non », a déclaré Colman.

"Nous pensons également que le créateur de ce fichier a ajouté un bruit de fond pour tenter d'échapper à la détection, mais notre système en tient également compte", a-t-il déclaré.

L'audio a été critiqué sur une base bipartite, malgré l'environnement politique très contesté au Royaume-Uni — avec des sondages montrant généralement le Parti travailliste a 17 points d'avance sur les conservateurs sortants.

Simon Clarke, député du Parti conservateur, a mis en garde sur les réseaux sociaux : « Il y a un faux audio qui circule ce matin de Keir Starmer – ignorez-le. » Le ministre de la Sécurité, Tom Tugendhat, également député conservateur, a également mis en garde contre ce « faux enregistrement audio » et a imploré les utilisateurs de Twitter de ne pas « le transmettre pour l’amplifier ».

« Les deepfakes menacent notre liberté. C’est pourquoi le groupe de travail pour la défense de la démocratie et le travail effectué par le Premier ministre sur l’IA sont essentiels pour nous protéger tous », a ajouté Tugendhat. Le mot « deepfake » est utilisé familièrement pour désigner tout type de média synthétique généré par les technologies d’IA.

Le groupe de travail sur la défense de la démocratie a été créé en novembre 2022 avec pour mission de réduire « le risque d'ingérence étrangère dans les processus démocratiques, les institutions et la société du Royaume-Uni, et de garantir que ceux-ci sont sûrs et résilients aux menaces d'ingérence étrangère », conformément à une question parlementaire répondue précédemment par Tugendhat.

Recorded Future News croit comprendre qu'une analyse du fichier audio par le gouvernement britannique a confirmé qu'il s'agissait d'un faux.

Capture d'écran de la publication sur les réseaux sociaux contenant le fichier audio.

Les autorités britanniques se préparent à ce type d’ingérence à l’approche des élections générales de l’année prochaine, à la suite de tentatives similaires visant à influencer les récentes élections en Slovaquie.

Deux jours avant l'ouverture du scrutin, le 30 septembre, de faux clips audio ont été publiés sur les réseaux sociaux, tentant d'incriminer un chef de parti d'opposition et un journaliste pour avoir truqué les élections en complotant pour acheter des voix.

Démystifier publiquement l'audio était un défi en raison des lois électorales du pays, qui interdisent strictement aux médias et aux hommes politiques de faire des annonces de campagne dans les deux jours précédant l'ouverture du scrutin.

Comme rapporté par Wired, en tant que message audio, le faux a également « exploité une faille dans la politique de Meta en matière de médias manipulés, qui dicte uniquement les faux. les vidéos – dans lesquelles une personne a été montée pour dire des mots qu’elle n’a jamais prononcés – vont à l’encontre de ses règles.

On ne sait pas clairement qui a produit le faux audio dans le cas slovaque ou britannique.

Le compte qui a publié la diffamation de Keir Starmer avait précédemment tweeté : « Laissez-moi être clair. Je suis sans équivoque PRO aux tactiques de diffamation contre ceux qui se livrent eux-mêmes à des tactiques de diffamation. Les gens mentent à propos de Keir Starmer ? Bien. Et je suis l'un d'entre eux.

Ce tweet a maintenant été supprimé, bien que le faux audio reste disponible.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd