Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4070

Incidents associés

Incident 62815 Rapports
Fake Biden Voice in Robocall Misleads New Hampshire Democratic Voters in 2024 Primary Election

Loading...
Un groupe intente un procès après qu'un nouveau deepfake de Biden a exhorté les électeurs à éviter les primaires du New Hampshire
washingtonpost.com · 2024

Un groupe de défense des droits des électeurs poursuit en justice un consultant politique et des entreprises à l'origine d'un appel automatisé généré par l'IA du président Biden qui, en janvier, a exhorté les électeurs du New Hampshire à ne pas participer à la primaire présidentielle de l'État.

La League of Women Voters of New Hampshire accuse le consultant de campagne Steve Kramer et les sociétés de télécommunications Life Corp. et Lingo Telecom d'intimidation, de coercition et de tromperie des électeurs en violation des lois fédérales et étatiques, notamment du Voting Rights Act et du Telephone Consumer Protection Act. La plainte, déposée devant le tribunal de district américain du New Hampshire au nom de trois électeurs qui ont déclaré avoir reçu les appels automatisés, demande à un juge d'infliger une amende aux accusés et de les empêcher de produire, de générer ou de distribuer d'autres appels automatisés générés par l'intelligence artificielle.

« Ces appels automatisés trompeurs ont tenté de semer la confusion parmi les électeurs du New Hampshire », a déclaré Liz Tentarelli, présidente de la League of Women Voters of New Hampshire, dans un communiqué annonçant le procès. « La League of Women Voters s'efforce de garantir que tous les électeurs, quelle que soit leur affiliation politique, disposent des informations électorales les plus précises pour faire entendre leur voix. Nous continuerons à défendre les intérêts des électeurs du New Hampshire et à lutter contre les stratagèmes malveillants visant à supprimer le vote. »

L'IA générative --- technologie qui forme du texte, des images ou des sons en fonction des données qui lui sont fournies --- est devenue plus courante et plus sophistiquée ces dernières années. Les deepfakes se propagent souvent sur X, Facebook et d'autres plateformes de médias sociaux, rapporte le Washington Post , mais l'incident du robocall de janvier est l'une des premières utilisations majeures connues de l'IA pour interférer avec une élection présidentielle américaine et montre les pouvoirs perturbateurs et étendus de l'IA : presque tout le monde peut l'utiliser pour semer le chaos et la confusion.

« Alors que les acteurs de mauvaise foi cherchent depuis longtemps à saper le processus électoral par des menaces, des intimidations et des coercitions, l'utilisation malveillante de l'intelligence artificielle par les défendeurs constitue une menace nouvelle et dangereuse pour la démocratie américaine », a écrit la section de la League of Women Voters dans sa plainte.

Life Corp., son propriétaire, Walter Monk, Lingo Telecom et un représentant de Kramer ont refusé de commenter samedi.

Kramer, le consultant chevronné qui a travaillé pour le candidat démocrate à la présidentielle Dean Phillips, a déclaré au Washington Post en février qu'il avait embauché le magicien et autoproclamé « nomade numérique » Paul Carpenter pour imiter la voix de Biden à l'aide d'un logiciel de clonage vocal par IA de la société ElevenLabs. Kramer a déclaré que la voix deepfake de Biden a été créée en moins de 30 minutes et délivrée par Voice Broadcasting, une entité associée à Life Corp. Kramer a déclaré au Post qu'il avait créé l'appel automatisé pour sensibiliser aux dangers de l'IA pendant une année électorale charnière.

"Si n'importe qui peut le faire, que va faire une personne avec de l'argent réel, ou une entité avec de l'argent réel ?" a-t-il déclaré.

Carpenter n'est pas nommé comme défendeur dans le procès.

Son avocat Brandon Kizy a déclaré que Carpenter se conformait aux enquêtes, mais il a par ailleurs refusé de commenter.

Les données d'identification de l'appelant ont montré que les messages semblaient provenir de l'ancienne présidente du Parti démocrate du New Hampshire, Kathy Sullivan, qui dirigeait l'effort pour inciter les électeurs à écrire le nom de Biden sur le bulletin de vote, selon le procès, bien que Sullivan n'ait pas été impliqué.

L'appel disait : "Ce mardi prochain a lieu la primaire présidentielle du New Hampshire", selon le procès. « Les républicains ont essayé de pousser les électeurs non partisans et démocrates à participer à leur primaire. Quelle bande de bêtises. Nous savons l'importance de voter démocrate lorsque nos votes comptent. Il est important que vous gardiez votre vote pour l'élection de novembre. Nous aurons besoin de votre aide pour élire des démocrates de tous bords. Voter ce mardi ne fait que renforcer les républicains dans leur quête d'élire à nouveau Donald Trump. Votre vote fait une différence en novembre, pas ce mardi. »

Début février, le procureur général du New Hampshire John Formella (R) a ouvert une enquête criminelle sur Life Corp. et a envoyé à l'entreprise de télécommunications basée au Texas une lettre lui ordonnant de cesser les appels. La Commission fédérale des communications mène également une enquête.

Les lois ont été lentes à suivre le rythme auquel l'IA générative progresse. Les discussions sur cette technologie sont au point mort au Congrès, malgré les avertissements de responsables du secteur, comme le directeur général d'OpenAI Sam Altman. Pendant ce temps, les régulateurs européens ont agi à une vitesse vertigineuse.

Cependant, la FCC a pris des mesures pour maîtriser l'IA. Dans les semaines qui ont suivi les appels automatisés, la FCC a adopté à l'unanimité une décision précisant que la génération d'une voix par l'IA pour un appel automatisé est illégale.

« Des acteurs malveillants utilisent des voix générées par l'IA dans des appels automatisés non sollicités pour extorquer des membres vulnérables de la famille, imiter des célébrités et désinformer les électeurs », a déclaré la présidente de la FCC, Jessica Rosenworcel, dans un communiqué. « Nous mettons en garde les fraudeurs à l'origine de ces appels automatisés. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd