Incidents associés

Une vidéo circulant sur Facebook semble montrer le leader travailliste Sir Keir Starmer faisant la promotion d'un programme d'investissement. Cependant, cette vidéo n’est pas authentique et le son semble avoir été modifié à l’aide de l’intelligence artificielle (IA).
La vidéo commence par des images de ce qui est censé être M. Starmer parlant directement à la caméra avant de montrer un montage de différents clips pendant que l'audio est diffusé par-dessus. Il dit promouvoir une « nouvelle plateforme qui offre une opportunité unique aux résidents du Royaume-Uni de gagner un revenu passif ».
Il a été partagé avec la légende : « Une initiative spéciale du gouvernement britannique pour tous les citoyens britanniques ! Agissez vite avant que les ralentissements ne se remplissent ! » et le texte superposé indique : « Gagnez jusqu'à 40 000 £ par mois ! Commencez dès aujourd’hui avec seulement 250 £ et gagnez 1 000 £ dès le premier jour ! »
Cependant, un porte-parole de M. Starmer a confirmé à Full Fact que cette vidéo n'est pas authentique.
Nous n'avons trouvé aucun rapport du gouvernement ou de sources fiables décrivant un tel programme d'investissement.
Il semble que les images soient en fait une vidéo deepfake créée en clonant la voix de M. Starmer. Le contenu Deepfake fait référence à l’utilisation de l’intelligence artificielle pour créer des images, des fichiers audio et des vidéos originaux pouvant être utilisés pour imiter de manière convaincante de vraies personnes.
Le deepfake semble avoir utilisé une vidéo du véritable [adresse du Nouvel An 2023] de M. Starmer(https://twitter.com/Keir_Starmer/status/1609097027262070789?s=20), qui a un son différent.
Le faux audio prononce également à plusieurs reprises le signe dièse avant le numéro correspondant, en disant par exemple « 35 000 livres » au lieu de « 35 000 livres ». Ce serait une erreur très improbable pour un anglophone natif, comme M. Starmer, de commettre plusieurs fois.
Mike Russell, fondateur de la société de production audio Music Radio Creative et professionnel de l'audio certifié avec plus plus de 25 ans d'expérience, a déclaré à Full Fact que « l'utilisation de « livres » le trahit vraiment ».
Cependant, il a averti que ce type de deepfake audio peut être « facile à réaliser pour n’importe qui » et que le clonage vocal devient de plus en plus « difficile à détecter ».
Dans la vidéo, la zone autour de la bouche de M. Starmer semble floue ou tachée. Le Dr Dominic Lees, responsable du réseau de recherche sur les médias synthétiques de l'Université de Reading, a précédemment déclaré à Full Fact qu'il s'agissait d'un signe révélateur que les vidéos étaient mal synchronisées sur les lèvres.
Faisant référence à une autre vidéo deepfake montrant prétendument des présentateurs de la BBC faisant la promotion d'un programme d'investissement, il a expliqué comment l'IA « a beaucoup de mal à générer un aspect naturel ». dans les dents laissent si souvent cela flou et flou.
Nous avons écrit sur d'autres exemples de clips audio pour lesquels Full Fact n'a trouvé aucune preuve réelle, comme un supposément enregistrer M. Starmer injuriant son personnel et un autre de Sadiq Khan semble demander le report du « week-end du Souvenir ».
L’émergence de matériels deepfake réalistes met en lumière les défis accrus en matière de vérification posés par les nouvelles technologies et le défi d’assurer une réponse efficace et proportionnée de la part des plateformes de médias sociaux à ce type de contenu.
La désinformation se propage rapidement en ligne. Il est donc particulièrement important de déterminer si quelque chose est susceptible d’être authentique avant de le partager.