Incidents associés

Il n'y a aucune preuve qu'un clip audio qui est devenu viral sur X (anciennement Twitter), prétendument du leader travailliste Sir Keir Starmer injuriant un membre de son équipe , est authentique.
Le clip, qui compte plus de 1,5 million de vues au moment de la rédaction et a également été partagé sur Facebook, a été publié alors que la conférence du parti travailliste se tenait en cours à Liverpool dimanche.
Il est difficile de prouver définitivement qu’un clip audio non spécifique et non attribué a été falsifié. L’émergence de ce clip a mis en lumière les défis accrus de vérification posés par les nouvelles technologies et le défi d’assurer une réponse efficace et proportionnée des plateformes de médias sociaux à ce type de contenu.
Nous n’avons pas été en mesure de déterminer si le clip a été généré avec l’intelligence artificielle, édité d’une autre manière ou s’il s’agit d’un imitateur, mais nous n’avons vu aucune preuve suggérant qu’il est réel.
Il n’y a aucun indice spécifique dans le clip lui-même, comme un bruit de fond identifiable ou des noms utilisés, qui permettrait de le vérifier. Des sources au sein du parti travailliste ont déclaré que le clip était faux, tout comme le ministre de la Sécurité Tom Tugendhat et [le député Simon Clarke](https://twitter.com /SimonClarkeMP/status/1710979175589290434), tous deux conservateurs.
M. Tugendhat et M. Clarke ont suggéré que le clip était une version audio d'un [deepfake](https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you- repérer-les) et a évoqué les travaux en cours pour relever les défis de l’intelligence artificielle. Cependant, lorsque nous avons demandé à M. Tugendhat sur quoi reposait cette évaluation, nous n’avons reçu aucune réponse.
Le compte X qui affirmait avoir reçu le clip audio et disait qu'il s'agissait de M. Starmer « abusant verbalement de ses collaborateurs lors de la conférence » fonctionne actuellement sous le nom « El Borto », et a déjà publié d’autres affirmations non fondées sur M. Starmer. On ne sait pas clairement qui gère le compte, créé en janvier 2023 et qui compte désormais environ 3 600 abonnés. Nous avons tenté de contacter le propriétaire du compte mais n'avons pas reçu de réponse.
Des allégations non fondées
Le 21 août, alors qu'il opérait sous le nom de « UK Politics », le compte en question [affirmait avoir mené une interview](https://twitter. com/leo_hutz/status/1693712849695093119) avec M. Starmer. Le récit disait : « NOUVEAU : le leader travailliste Keir Starmer a déclaré qu’il soutiendrait la peine de mort « pour les crimes les plus odieux ».
Nous n’avons vu aucune preuve à l’appui d’une telle affirmation, ni aucune preuve que M. Starmer ait mené un tel entretien. En fait, M. Starmer a à plusieurs reprises exprimé clairement son opposition à la peine capitale et a remporté un prix pour son travailler sur des affaires de peine de mort.
Invité à fournir la source par d'autres utilisateurs X, le titulaire du compte a répondu : « Nous sommes la source. Il nous parlait. Le titulaire du compte a alors affirmé avoir des images de M. Starmer prononçant ces mots, mais a déclaré qu'il n'était pas en mesure de les télécharger car : "Je n'ai pas la permission de publier la vidéo. Je pourrais être poursuivi en justice.
Le lendemain, le compte a mis en ligne ce qui semblait être une photo d'une télévision branchée sur un article de la chaîne BBC News avec la légende : « Peine de mort de Keir Starmer commentaires". En réponse aux autres utilisateurs, le propriétaire du compte X semblait laisser entendre que les citations qu'il avait publiées la veille étaient désormais rapportées par la chaîne.
Nous n’avons vu aucune preuve qu’il s’agisse d’une image d’un véritable reportage de la BBC News. Nous n’avons trouvé aucune mention de ce rapport ailleurs en ligne, et un examen attentif de l’image semble montrer des incohérences avec le texte de la légende, ce qui suggère qu’elle pourrait avoir été modifiée numériquement. De plus, lorsque Full Fact a vérifié ce qui était rapporté sur BBC News à 13 h 28 le 22 août (l'horodatage figurant sur la photo), il n'y avait aucune mention de M. Starmer et les présentateurs discutaient plutôt de la popularité croissante des échecs.
« Difficile de confirmer les deepfakes avec une totale certitude »
Nous avons vu l’analyse du clip audio par un certain nombre d’experts audio différents, mais sans aucune conclusion globale définitive.
Mike Russell, fondateur de la société de production audio Music Radio Creative et professionnel de l'audio certifié avec plus de 25 ans d'expérience, a mené une analyse approfondie pour un podcast, qui, au moment de la rédaction de cet article, n'a pas encore été publié. Il a déclaré à Full Fact qu'il était "impossible de confirmer à 100 %" si le clip était ou non un deepfake.
"Malheureusement, il n'y a pas de oui/non définitif", a-t-il déclaré. "Il reste très difficile de confirmer les deepfakes avec une certitude totale… nous approchons rapidement d'un point où l'audio ne peut plus être considéré comme une preuve factuelle avec l'essor de la synthèse de l'IA. »
Bien que son analyse n'ait trouvé aucun « problème » d'IA et que certains tests aient suggéré que l'audio était réel, M. Russell a également pu utiliser des outils de clonage de voix d'IA pour recréer de faux échantillons extrêmement réalistes de la voix de Sir Keir.
Une [étude récente](https://www.ucl.ac.uk/news/2023/aug/humans-unable-detect-over- quarter-deepfake-speech-samples) réalisée par des chercheurs de l'University College de Londres a révélé que la technologie nécessaire pour produire de faux clips audio est désormais largement accessible et facile à utiliser. « Alors que les premiers algorithmes de deepfake vocaux auraient pu nécessiter des milliers d’échantillons de la voix d’une personne pour pouvoir générer un son original, les derniers algorithmes pré-entraînés peuvent recréer la voix d’une personne en utilisant seulement un extrait de trois secondes de sa voix », indique-t-il.
"Les algorithmes open source sont disponibles gratuitement et même si une certaine expertise serait bénéfique, il serait possible pour un individu de les former en quelques jours."
La même étude comprenait une expérience qui a révélé que les humains ne sont capables de détecter un son altéré que 73 % du temps.
Les inquiétudes concernant le potentiel de manipulation audio pour générer de la désinformation ont été soulignées récemment lorsque, peu avant les élections en Slovaquie, un enregistrement audio a été publié sur Facebook aurait présenté le chef d'un parti politique et un éminent journaliste discutant de la manière de truquer le vote.
Les deux hommes ont nié qu'une telle conversation ait jamais eu lieu et les vérificateurs des faits de l'AFP ont déclaré que l'audio montrait des signes de manipulation à l'aide de l'IA.