Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6789

Incidents associés

Incident 12642 Rapports
Rep. Mike Collins's Campaign Allegedly Produced Deepfake of Sen. Jon Ossoff Supporting the Government Shutdown

Loading...
La campagne du représentant géorgien Mike Collins utilise un deepfake généré par IA du sénateur Jon Ossoff lors d'un bras de fer serré au Sénat.
cbsnews.com · 2025

Les injures, les insultes grossières et les attaques personnelles font partie intégrante de la vie politique américaine depuis des siècles. À l'ère des tactiques sans retenue, les attaques se font plus brutales et, en matière de publicité, tous les moyens sont bons pour prendre l'avantage sur la concurrence, même les attaques les plus artificielles.

Une nouvelle publicité politique dans la course au Sénat en Géorgie soulève des inquiétudes quant à l'utilisation de l'intelligence artificielle dans les élections. L'équipe de campagne du représentant Mike Collins a en effet diffusé une vidéo truquée (deepfake) montrant le sénateur Jon Ossoff se moquant des agriculteurs et défendant le blocage des services gouvernementaux.

Ossoff n'a jamais tenu de tels propos.

La vidéo, diffusée la semaine dernière sur les réseaux sociaux, a été créée à l'aide d'intelligence artificielle et utilise un enregistrement audio généré par ordinateur d'Ossoff affirmant soutenir le blocage budgétaire et n'avoir « vu une ferme que sur Instagram ». La publicité inclut un petit avertissement à l'écran indiquant que « la vidéo est générée par IA », afin de ne pas enfreindre les lois de l'État de Géorgie ni les lois fédérales.

Cette publicité a suscité un débat plus large sur l'utilisation responsable des nouvelles technologies à des fins de persuasion politique et sur les conséquences d'une frontière floue entre vérité et mensonge.

Les campagnes s'affrontent au sujet de cette publicité.


Le Parti républicain de Géorgie a défendu la vidéo, la qualifiant de satire politique légitime.

Josh McKoon, président du Parti républicain de Géorgie, a déclaré que le parti « soutient l'utilisation créative des technologies de pointe » et a accusé les démocrates d'avoir « peur de perdre le pouvoir ».

« Cette publicité était clairement identifiée comme une satire générée par IA », a déclaré McKoon à CBS News Atlanta dans un communiqué. « Toute affirmation selon laquelle il s'agirait d'un deepfake destiné à tromper n'est qu'un argument de plus, désespéré et fallacieux. »

L'équipe de campagne d'Ossoff a contesté cette version, qualifiant la publicité de tentative délibérée de désinformer les électeurs. Le candidat sortant s'est engagé à ne pas utiliser cette technologie durant cette campagne électorale.

Dans un communiqué, un porte-parole de la campagne d'Ossoff a déclaré : « La seule raison pour laquelle un candidat aurait besoin d'un deepfake pour inventer les propos d'un adversaire est qu'il ne pense pas pouvoir gagner par ses propres moyens. Les Géorgiens n'apprécient pas les personnes qui leur mentent. »

L'équipe de campagne de Collins a déclaré qu'elle prévoyait de continuer à utiliser des outils d'intelligence artificielle.

« À mesure que la technologie évolue et crée de nouvelles opportunités pour atteindre et communiquer avec les électeurs, l'équipe de campagne de Collins sera à l'avant-garde de l'adoption de nouvelles tactiques et stratégies permettant de dépasser la couverture médiatique partiale des médias traditionnels et de transmettre notre message directement aux électeurs », a déclaré l'équipe de campagne dans un communiqué.

Les démocrates locaux ont vivement critiqué cette initiative. Devon Cruz, conseiller principal en communication du Parti démocrate de Géorgie, a déclaré : « Au lieu de tenter de tromper les électeurs avec des vidéos truquées, le député Mike Collins, dont l'intégrité est douteuse, devrait expliquer pourquoi il soutient le doublement des primes d'assurance maladie des Géorgiens. »

Le député Mike Collins est l'un des nombreux républicains qui briguent le siège du sénateur Jon Ossoff lors des élections de mi-mandat de l'année prochaine.

Des experts préviennent que le public pourrait avoir du mal à distinguer le vrai du faux.


Le Dr Patrick Dicks, chercheur et expert en intelligence artificielle et en automatisation, a déclaré à CBS News Atlanta que les deepfakes ne constituent plus une menace futuriste ; ils sont déjà une réalité et les campagnes électorales les utilisent déjà.

« Ce que nous constatons aujourd'hui, je l'avais annoncé dès 2017 », a déclaré Dicks. « On peut créer un enregistrement audio d'un adversaire qui lui ressemble trait pour trait. Les gens entendent quelque chose une fois et le prennent pour argent comptant. »

Dicks a expliqué que le danger est simple : les deepfakes peuvent induire les électeurs en erreur et leur faire croire qu’un candidat a dit ou fait quelque chose qui ne s’est jamais produit.

« On peut influencer les électeurs sur la base de faits mensongers », a-t-il déclaré. « Les gens peuvent voter pour ou contre un candidat en se basant sur une vidéo entièrement fabriquée. »

Et comme la plupart des contenus générés par l’IA ne laissent aucune trace de leur origine, a-t-il ajouté, n’importe qui peut créer et diffuser un deepfake, et les équipes de campagne peuvent même ignorer son origine.

La réglementation des deepfakes reste limitée à l’échelle nationale.


Les législateurs de Géorgie ont pris des mesures pour interdire les supports de campagne trompeurs générés par l’IA. Un projet de loi communément appelé SB9 a progressé en 2025 et criminaliserait la publication, en toute connaissance de cause, de certains documents de campagne générés par intelligence artificielle sans les mentions légales requises dans les 90 jours précédant une élection. Ce texte prévoit des sanctions qui peuvent s'alourdir en fonction de l'intention et de la récidive.

La Géorgie fait toutefois partie des premiers États à tenter de réglementer cette technologie. En 2019, plusieurs États ont commencé à adopter des lois pour lutter contre les deepfakes politiques trompeurs, notamment ceux liés aux élections.

Selon la Conférence nationale des législatures d'État, en 2025, au moins la moitié des États américains avaient promulgué des lois relatives aux deepfakes, en particulier dans le contexte électoral, à la diffusion d'images à caractère sexuel non consensuelles et à l'usurpation d'identité. L'année dernière, les 50 États, le district de Columbia, Porto Rico et les îles Vierges américaines ont examiné des projets de loi relatifs à l'intelligence artificielle. Et 38 États ont adopté une centaine de mesures relatives à l'IA, et d'autres sont attendues en 2026.

Selon Dicks, l'essor rapide de l'IA générative implique que les États devront instaurer des règles beaucoup plus strictes, notamment des filigranes permanents et des mentions claires, afin d'éviter toute confusion généralisée.

« Si une campagne utilise l'IA, elle doit en informer les électeurs dès le départ », a-t-il déclaré. « Actuellement, les gens ne savent plus distinguer le vrai du faux. Et face à la confusion, ils risquent de s'abstenir. »

Un signe avant-coureur


La publicité de la campagne de Collins est révélatrice : sans règles claires et applicables, davantage de campagnes et d'acteurs extérieurs pourraient utiliser des médias générés par l'IA pour influencer les électeurs.

« À terme, chaque candidat en sera victime », a affirmé le Dr Dicks. « Sans réglementation stricte, personne n'est à l'abri de l'usurpation d'identité. »

Un sondage réalisé en 2023 par le Centre AP-NORC de recherche sur les affaires publiques et l'École de politiques publiques Harris de l'Université de Chicago a révélé que près de six adultes sur dix (58 %) estimaient que les outils d'intelligence artificielle, capables de cibler précisément les électeurs, de produire en masse des contenus persuasifs et de générer en quelques secondes de fausses images et vidéos réalistes, aggraveraient la diffusion d'informations fausses et trompeuses lors de l'élection présidentielle. À titre de comparaison, 6 % pensaient que l'IA réduirait la désinformation, tandis qu'environ un tiers estimait qu'elle ne changerait pas grand-chose.

Des contenus politiques générés par l'IA étaient largement disponibles en ligne avant l'élection de 2024. Le président Donald Trump a partagé avec ses partisans des vidéos manipulées par l'IA, notamment un extrait déformé d'une intervention d'Anderson Cooper, présentateur de CNN, sur la plateforme Truth Social. Le Comité national républicain a diffusé une publicité déformée numériquement montrant l'ancien président Joe Biden avec le slogan : « Et si le président le plus faible que nous ayons jamais eu était réélu ? », peu après l'annonce de sa candidature à sa propre succession.

Parmi les autres exemples, citons des vidéos truquées de Biden semblant s'en prendre aux personnes transgenres, des images générées par IA montrant faussement des enfants apprenant le satanisme dans des bibliothèques, et des images manipulées de la photo d'identité judiciaire de Trump avant sa publication officielle. Certains créateurs ont reconnu l'origine mensongère de leurs contenus générés par IA, mais leur viralité souligne le défi auquel sont confrontés les électeurs.

L'élection sénatoriale de Géorgie en 2026 illustre à quel point l'intelligence artificielle pourrait rapidement bouleverser les règles du jeu électoral. Les électeurs pourraient bientôt être contraints de naviguer dans un véritable champ de mines numérique d'images et de voix manipulées, devant décider non seulement pour qui soutenir, mais aussi à quoi croire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd