Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4316

Incidents associés

Incident 8521 Rapport
Alleged Fake Citations Undermine Expert Testimony in Minnesota Deepfake Law Case

Loading...
Un expert en désinformation cite des sources inexistantes dans une affaire de deep fake au Minnesota • Minnesota Reformer
minnesotareformer.com · 2024

Un éminent expert en désinformation est accusé d’avoir cité des sources inexistantes pour défendre la nouvelle loi du Minnesota interdisant la désinformation électorale.

Le professeur Jeff Hancock, directeur fondateur du Stanford Social Media Lab, est « bien connu pour ses recherches sur la façon dont les gens utilisent la tromperie avec la technologie », selon sa biographie à Stanford.

À la demande du procureur général du Minnesota Keith Ellison, Hancock a récemment soumis une déclaration sous serment soutenant une nouvelle législation qui interdit l’utilisation de la technologie dite « deep fake » pour influencer une élection. La loi est contestée devant un tribunal fédéral par une YouTubeuse conservatrice et représentante républicaine de l’État, Mary Franson d’Alexandria, pour violation des protections de la liberté d’expression du Premier Amendement.

La déclaration d’expert de Hancock en faveur de la loi sur le deep fake cite de nombreux travaux universitaires. Mais plusieurs de ces sources ne semblent pas exister, et les avocats qui contestent la loi affirment qu’elles semblent avoir été inventées par un logiciel d’intelligence artificielle comme ChatGPT.

Par exemple, la déclaration cite une étude intitulée « L’influence des vidéos deepfakes sur les attitudes et le comportement politiques », et indique qu’elle a été publiée dans le Journal of Information Technology & Politics en 2023. Mais aucune étude portant ce nom n’apparaît dans cette revue ; les bases de données universitaires n’ont aucune trace de son existence ; et les pages spécifiques de la revue référencées contiennent deux articles entièrement différents.

« La citation porte les caractéristiques d’une « hallucination » d’intelligence artificielle (IA), ce qui suggère qu’au moins la citation a été générée par un grand modèle de langage comme ChatGPT », écrivent les avocats des plaignants. « Les plaignants ne savent pas comment cette hallucination a abouti dans la déclaration de Hancock, mais elle remet en question l’ensemble du document. »

Par ailleurs, le professeur de droit libertaire Eugene Volokh a découvert](https://reason.com/volokh/2024/11/19/apparent-ai-hallucinations-in-misinformation-experts-court-filing-supporting-anti-ai-misinformation-law/) qu’une autre citation dans la déclaration de Hancock, à une étude prétendument intitulée « Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance », ne semble pas exister.

Si les citations ont été générées par un logiciel d’intelligence artificielle, il est possible que d’autres parties de la déclaration de 12 pages de Hancock l’aient également été. On ne sait pas si les citations inexistantes ont été insérées par Hancock, un assistant ou une autre partie. Ni Hancock ni le Stanford Social Media Lab n’ont répondu aux demandes répétées de commentaires. Le bureau d’Ellison non plus.

Frank Bednarz, avocat des plaignants dans cette affaire, a déclaré que les partisans de la loi sur le deep fake soutiennent que, « contrairement à d’autres discours en ligne, le contenu généré par l’IA ne peut pas être contré par des vérifications des faits et des informations ».

Cependant, a-t-il ajouté, « en dénonçant la fabrication générée par l’IA devant le tribunal, nous démontrons que le meilleur remède contre les faux discours reste le vrai discours – et non la censure ».

L’utilisation maladroite de logiciels d’intelligence artificielle a causé de nombreux embarras dans l’ensemble du système juridique ces dernières années. En 2023, par exemple, deux avocats new-yorkais ont été sanctionnés par un juge fédéral pour avoir soumis un mémoire contenant des citations de cas juridiques inexistants inventés par ChatGPT.

Certains des avocats impliqués dans les précédents incidents de ChatGPT ont plaidé l’ignorance, affirmant qu’ils n’étaient pas au courant des limites du logiciel ou de sa tendance à tout simplement inventer des choses. Mais Hancock est un éminent expert en technologie et en désinformation, ce qui rend les fausses citations particulièrement embarrassantes.

Sa déclaration se termine par la déclaration suivante : « Je déclare sous peine de parjure que tout ce que j’ai déclaré dans ce document est vrai et correct. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd