Incidents associés
La fille du révérend Martin Luther King Jr., Bernice, a condamné lundi une vidéo générée artificiellement dans laquelle le leader des droits civiques fait l'éloge de l'ancien président Donald Trump, alors que les deux partis courtisent les électeurs noirs avant le jour du scrutin.
La vidéo, publiée dimanche soir sur le réseau social X par un compte pro-Trump appelé MAGA Resource, représentait faussement King exhortant les Noirs à voter pour Trump, affirmant qu'il avait fait « plus pour la communauté noire que tout autre président ». Lundi soir, elle avait recueilli plus de 10 millions de vues.
Bernice King a publié lundi sur X une vidéo dénonçant la vidéo et demandant sa suppression. « C'est ignoble, faux, irresponsable et ne reflète pas du tout ce que mon père aurait dit », a déclaré King. « Et vous n'avez pas pensé à notre famille. »
Les utilisateurs de X qui contribuent à la vérification participative des faits sur la plateforme ont joint une note à la publication vidéo lundi, la qualifiant de « deepfake », un terme utilisé pour les images, vidéos ou audios réalisés avec l'intelligence artificielle.
La fausse vidéo d'IA survient dans les dernières heures d'une course présidentielle au cours de laquelle les deepfakes sont apparus très tôt. En janvier, les électeurs du New Hampshire ont été ciblés par un appel automatisé avec un deepfake audio de la voix du président Joe Biden encourageant les gens à ne pas voter lors des primaires de l'État.
« Nous sommes dans une sorte de moment où la politique et l'IA lancent des spaghettis au mur, où cette intersection permet aux gens d'essayer de nouvelles choses pour la propagande », a déclaré Rachel Tobac, directrice générale de SocialProof Security, une société de piratage éthique. « Je pense que nous allons voir des gens essayer tout ce qu'ils peuvent pour influencer l'élection. »
La fausse vidéo de King, assassiné en 1968, a fait surface sur X en février via le compte Ramble Rants, qui fait partie d'un groupe vaguement organisé appelé la Dilley Meme Team qui crée des mèmes soutenant Trump.
Brenden Dilley a répondu au message de Bernice King appelant à la suppression de la vidéo en disant seulement : « Bienvenue en 2024. » Le compte MAGA Resource n'a pas immédiatement répondu à une demande de commentaire. Le compte Ramble Rants a publié sur X que la note de vérification des faits « bulls--- » sur la plateforme qualifiant cette vidéo de deepfake « manquait le but et n'était pas nécessaire ».
Pendant l'élection de 2024](https://www.washingtonpost.com/elections/election-2024/?itid=lk_inline_manual_16), la désinformation générée par l'IA est devenue virale à plusieurs reprises, attirant l'attention des régulateurs et des observateurs qui surveillent l'effet que l'IA peut avoir sur le processus démocratique. Les experts en intelligence artificielle ne savent pas exactement dans quelle mesure ce contenu a pu changer l'opinion des gens sur les candidats ou sur leurs choix lors des urnes.
En mars, la BBC a découvert des dizaines de fausses images générées par l'IA montrant des Noirs soutenant Trump. Le propriétaire de X, Elon Musk, qui soutient Trump, a ciblé en juillet le remplaçant de Biden dans la course, en partageant sur X un deepfake audio généré par l'IA de la vice-présidente Kamala Harris célébrant faussement la décision du président de se retirer. Le clip a été visionné plus de 100 millions de fois.
En août, Trump a partagé une fausse image générée par l'IA de fans de Taylor Swift soutenant sa campagne, un coup de pub que la chanteuse a cité dans son soutien ultérieur à Harris.
Plus d'une douzaine d'États américains ont des lois pénalisant les personnes qui utilisent l'IA pour réaliser des vidéos trompeuses sur les politiciens, créant un patchwork de politiques à travers le pays. Le consultant qui a créé le deepfake de la voix de Biden a été condamné à une amende de 6 millions de dollars en septembre par la Commission fédérale des communications.
Bien que de nombreuses entreprises aient lancé des outils pour détecter les deepfakes, leurs performances ne sont pas fiables, une étude révélant que les méthodes variaient en termes de précision de 82 % à seulement 25 %.
Tobac a déclaré que les gens se rendraient probablement compte qu'une vidéo de King exhortant les électeurs à voter pour Trump est fausse. Mais elle a ajouté que ces vidéos peuvent être utilisées pour jouer sur les émotions des gens.
« Nous vivons dans un monde étrange où les deepfakes sont utilisés pour dire : « Et si c'était vrai ? » », a-t-elle ajouté, « et… en utilisant cela de manière partisane. »