Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4356

Incidents associés

Incident 8623 Rapports
Purportedly AI-Generated Video Allegedly Depicts Martin Luther King Jr. Supporting Donald Trump

Loading...
Un deepfake a montré Martin Luther King Jr. soutenant Trump. Sa fille a qualifié cette vidéo de « vile ».
washingtonpost.com · 2024

La fille du révérend Martin Luther King Jr., Bernice, a condamné lundi une vidéo générée artificiellement dans laquelle le leader des droits civiques fait l'éloge de l'ancien président Donald Trump, alors que les deux partis courtisent les électeurs noirs avant le jour du scrutin.

La vidéo, publiée dimanche soir sur le réseau social X par un compte pro-Trump appelé MAGA Resource, représentait faussement King exhortant les Noirs à voter pour Trump, affirmant qu'il avait fait « plus pour la communauté noire que tout autre président ». Lundi soir, elle avait recueilli plus de 10 millions de vues.

Bernice King a publié lundi sur X une vidéo dénonçant la vidéo et demandant sa suppression. « C'est ignoble, faux, irresponsable et ne reflète pas du tout ce que mon père aurait dit », a déclaré King. « Et vous n'avez pas pensé à notre famille. »

Les utilisateurs de X qui contribuent à la vérification participative des faits sur la plateforme ont joint une note à la publication vidéo lundi, la qualifiant de « deepfake », un terme utilisé pour les images, vidéos ou audios réalisés avec l'intelligence artificielle.

La fausse vidéo d'IA survient dans les dernières heures d'une course présidentielle au cours de laquelle les deepfakes sont apparus très tôt. En janvier, les électeurs du New Hampshire ont été ciblés par un appel automatisé avec un deepfake audio de la voix du président Joe Biden encourageant les gens à ne pas voter lors des primaires de l'État.

« Nous sommes dans une sorte de moment où la politique et l'IA lancent des spaghettis au mur, où cette intersection permet aux gens d'essayer de nouvelles choses pour la propagande », a déclaré Rachel Tobac, directrice générale de SocialProof Security, une société de piratage éthique. « Je pense que nous allons voir des gens essayer tout ce qu'ils peuvent pour influencer l'élection. »

La fausse vidéo de King, assassiné en 1968, a fait surface sur X en février via le compte Ramble Rants, qui fait partie d'un groupe vaguement organisé appelé la Dilley Meme Team qui crée des mèmes soutenant Trump.

Brenden Dilley a répondu au message de Bernice King appelant à la suppression de la vidéo en disant seulement : « Bienvenue en 2024. » Le compte MAGA Resource n'a pas immédiatement répondu à une demande de commentaire. Le compte Ramble Rants a publié sur X que la note de vérification des faits « bulls--- » sur la plateforme qualifiant cette vidéo de deepfake « manquait le but et n'était pas nécessaire ».

Pendant l'élection de 2024](https://www.washingtonpost.com/elections/election-2024/?itid=lk_inline_manual_16), la désinformation générée par l'IA est devenue virale à plusieurs reprises, attirant l'attention des régulateurs et des observateurs qui surveillent l'effet que l'IA peut avoir sur le processus démocratique. Les experts en intelligence artificielle ne savent pas exactement dans quelle mesure ce contenu a pu changer l'opinion des gens sur les candidats ou sur leurs choix lors des urnes.

En mars, la BBC a découvert des dizaines de fausses images générées par l'IA montrant des Noirs soutenant Trump. Le propriétaire de X, Elon Musk, qui soutient Trump, a ciblé en juillet le remplaçant de Biden dans la course, en partageant sur X un deepfake audio généré par l'IA de la vice-présidente Kamala Harris célébrant faussement la décision du président de se retirer. Le clip a été visionné plus de 100 millions de fois.

En août, Trump a partagé une fausse image générée par l'IA de fans de Taylor Swift soutenant sa campagne, un coup de pub que la chanteuse a cité dans son soutien ultérieur à Harris.

Plus d'une douzaine d'États américains ont des lois pénalisant les personnes qui utilisent l'IA pour réaliser des vidéos trompeuses sur les politiciens, créant un patchwork de politiques à travers le pays. Le consultant qui a créé le deepfake de la voix de Biden a été condamné à une amende de 6 millions de dollars en septembre par la Commission fédérale des communications.

Bien que de nombreuses entreprises aient lancé des outils pour détecter les deepfakes, leurs performances ne sont pas fiables, une étude révélant que les méthodes variaient en termes de précision de 82 % à seulement 25 %.

Tobac a déclaré que les gens se rendraient probablement compte qu'une vidéo de King exhortant les électeurs à voter pour Trump est fausse. Mais elle a ajouté que ces vidéos peuvent être utilisées pour jouer sur les émotions des gens.

« Nous vivons dans un monde étrange où les deepfakes sont utilisés pour dire : « Et si c'était vrai ? » », a-t-elle ajouté, « et… en utilisant cela de manière partisane. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd