Problème 3102
La Chine envahit Taïwan et les migrants traversent la frontière américano-mexicaine dans une vidéo illustrant les conséquences de la réélection du président Biden. Dans une série d'images, l'ancien président Donald Trump est poursuivi à pied et appréhendé par des policiers en uniforme. Une autre photo montre le Pentagone englouti par les flammes suite à une explosion.
Le dénominateur commun entre ces scènes ? Ils sont tous faux. L'intelligence artificielle en évolution rapide facilite la génération de vidéos et d'images sophistiquées qui [peuvent tromper les téléspectateurs et diffuser des informations erronées] (https://www.wsj.com/articles/white-house-warns-of-risks-as-ai-use-takes-off-d4cc217f?mod=article_inline), constituant une menace majeure aux campagnes politiques alors que les concours de 2024 commencent.
Les images factices ne sont pas nouvelles dans les campagnes. Lors de la course présidentielle de 2020, Trump a partagé une fausse animation de Biden tirant à plusieurs reprises la langue avec la légende "Sloppy Joe". Une vidéo ralentie qui a faussement fait apparaître la présidente de la Chambre de l'époque Nancy Pelosi avec facultés affaiblies a accumulé des millions de vues en 2019.
Ce qui a changé, c'est que les médias synthétiques sont devenus beaucoup plus faciles à créer avec le déploiement de systèmes d'IA dits génératifs qui peuvent rapidement transformer de simples entrées en vidéos, photos, musiques et textes sophistiqués. Cela a laissé les responsables de la campagne se préparer à 2024 pour inaugurer un niveau de création et de prolifération numériques sans précédent, maintenant que des millions d'utilisateurs ont accès à de tels outils.
"Cela ne va pas créer de nouveaux domaines ou types de désinformation que nous n'avions jamais imaginés auparavant, mais cela va rendre la production plus facile, plus rapide et moins chère", a déclaré Teddy Goff, directeur numérique de l'ancien président Barack Obama. campagne électorale. "Et les conséquences de cela vont être assez profondes."
Le Comité national républicain était à l'origine de la vidéo dépeignant une Amérique dystopique si Biden obtenait un second mandat. Trump a publié une vidéo manipulée du présentateur de CNN Anderson Cooper réagissant à l'apparition de l'ancien président à une mairie organisée par le réseau.
"C'était le président Donald J. Trump qui nous déchirait un nouveau ------ ici sur la mairie présidentielle en direct de CNN", a déclaré Cooper dans la vidéo trafiquée.
Trump a également partagé une parodie du gouverneur de Floride Ron DeSantis [lancement de la campagne présidentielle sur Twitter Spaces](https:/ /www.wsj.com/articles/ron-desantis-trump-successor-president-3e9df9d6?mod=article_inline). La fausse vidéo publiée par Trump présente DeSantis, le directeur général de Twitter Elon Musk, le donateur démocrate George Soros, l'ancien vice-président Dick Cheney, Adolf Hitler et le diable et semble utiliser des clones de voix générés par l'IA, y compris de Trump, qui intervient pour dire : "Tenez vos chevaux, Elon, le vrai président va dire quelques mots."
Les porte-parole de la campagne Trump et le RNC n'ont pas renvoyé les demandes de commentaires.
Les nouveaux outils vocaux et vidéo de l'IA peuvent vous ressembler et vous ressembler. Mais peuvent-ils tromper votre famille --- ou votre banque ? Joanna Stern du WSJ s'est remplacée par sa jumelle IA pour la journée pour le savoir. Illustration photo : Elena Scotti
La vitesse à laquelle l'IA peut générer du contenu est considérée comme un changeur de jeu. Plutôt que de devoir compter sur des consultants et des experts numériques, l'IA est un moyen beaucoup moins cher grâce auquel les campagnes peuvent réagir aux événements en temps réel.
Des consultants démocrates et républicains disent qu'ils testent également l'IA et le chatbot viral ChatGPT comme outils d'organisation numérique qui peuvent aider à rédiger des discours, des e-mails et des SMS de collecte de fonds et à constituer des fichiers d'électeurs. Bien que les campagnes devront toujours examiner et modifier le contenu généré par l'IA, la technologie pourrait aider à réduire considérablement le temps consacré au contact quotidien avec les électeurs.
Les chiens de garde en ligne avertissent que la technologie pourrait être utilisée à des fins plus néfastes, notamment pour diffuser de fausses informations sur les heures et les lieux de vote, les délais d'inscription des électeurs ou la manière dont les gens peuvent voter.
À la veille du premier tour de l'élection du maire de Chicago en février, le personnel du candidat Paul Vallas a remarqué une vidéo circulant sur Twitter. Il montrait sa photo et jouait une voix qui ressemblait à la sienne, semblant tolérer la brutalité policière, a déclaré Brian Towne, directeur de campagne de Vallas.
La vidéo n'a pas beaucoup circulé et n'a probablement pas affecté le vote, a déclaré Towne. Vallas a terminé premier au tour de février mais a perdu un second tour. Néanmoins, Towne a décrit l'épisode comme un dangereux précédent. Il a dit qu'il ne savait pas qui avait créé la vidéo et que la campagne avait déterminé qu'elle avait probablement été créée à l'aide de l'IA.
"Pour un électeur informé, la vidéo finit par apparaître comme fabriquée", a déclaré Towne. "Mais vous avez aussi beaucoup d'électeurs non informés ou désengagés qui peuvent ne voir qu'un extrait de la vidéo et soudain, ils deviennent plus enclins à voter contre un candidat."
Les plateformes de médias sociaux ont souvent des politiques qui stipulent qu'elles supprimeront les contenus trompeurs et manipulés. L'application de ces politiques peut être incohérente ou lente, et les plateformes font parfois des exceptions pour les faux messages des candidats au nom de la liberté du débat politique.
L'essor des systèmes d'IA générative a incité les leaders technologiques à demander un nouveau système d'étiquetage, permettant aux utilisateurs de voir si un élément de contenu est généré par l'IA. La vidéo du RNC sur la réélection de Biden était accompagnée d'un avertissement en petit texte blanc indiquant "entièrement construit avec des images d'IA".
"Il est tout à fait évident que les utilisateurs ne devraient pas être soumis à une désinformation aléatoire sans savoir qui l'a fait et d'où elle vient", a déclaré Eric Schmidt, ancien PDG de Google et chef d'une commission sur l'intelligence artificielle nommée par le Congrès.
Google et Microsoft, un soutien de [le créateur de ChatGPT OpenAI](https://www.wsj.com/articles/chatgpt-sam- altman-artificial-intelligence-openai-b0e1c8c9?mod=article_inline), ont tous deux déclaré lancer des outils qui marqueront le contenu généré par l'IA avec des données sur son origine.
Dans une étape préliminaire vers la réglementation, la Maison Blanche a récemment demandé l'avis du public sur les questions d'IA, y compris la manière de relever les défis du processus électoral.
Les partisans disent qu'il existe des situations où les lois existantes pourraient s'appliquer à l'utilisation de contenu généré par l'IA lors des élections. La loi électorale fédérale interdit aux candidats de se faire passer pour d'autres candidats. Le groupe de défense Public Citizen a récemment demandé à la Commission électorale fédérale, qui applique les lois sur la campagne, de publier des directives indiquant que cette disposition s'appliquerait si un candidat utilisait une représentation générée par l'IA d'un candidat concurrent dans une annonce de campagne. L'agence n'a pas répondu à la pétition.
La FEC n'a pas le pouvoir de contrôler les utilisateurs moyens des médias sociaux qui pourraient publier une vidéo fabriquée qui devient virale.
Robert Weissman, président de Public Citizen, a déclaré que les partis politiques et les médias devraient déclarer l'utilisation de médias frauduleux comme "interdite". Il a ajouté: "Nous ne sommes pas réellement préparés pour le défi."
Écrivez à Sabrina Siddiqui à sabrina.siddiqui@wsj.com et à Ryan Tracy à ryan.tracy@wsj.com