Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6175

Incidents associés

Incident 114526 Rapports
MyPillow Defense Lawyers in Coomer v. Lindell Reportedly Sanctioned for Filing Court Document Allegedly Containing AI-Generated Legal Citations

Loading...
Les avocats du PDG de MyPillow condamnés à une amende pour un dossier judiciaire généré par l'IA
mashable.com · 2025

Le dossier était truffé de près de 30 erreurs, dont des citations de cas inexistants.

Les avocats de Mike Lindell, PDG de MyPillow et théoricien du complot électoral, ont été condamnés à une amende après avoir soumis un dossier juridique rempli d'erreurs générées par l'IA. Cela nous rappelle une fois de plus que, aussi passionnante que puisse paraître l'IA, elle ne remplace pas le travail personnel.

La juge du tribunal de district du Colorado, Nina Wang, a prononcé les sanctions lundi (https://storage.courtlistener.com/recap/gov.uscourts.cod.215068/gov.uscourts.cod.215068.383.0.pdf), estimant que les avocats Christopher Kachouroff et Jennifer DeMaster, du cabinet McSweeney Cynkar and Kachouroff, avaient violé les règles fédérales de procédure civile (https://www.law.cornell.edu/rules/frcp/rule_11). Plus précisément, Mme Wang a estimé que les avocats « n'avaient pas raisonnablement attesté que les réclamations, défenses et autres arguments juridiques contenus dans le mémoire d'AI étaient justifiés par le droit en vigueur ».

Par conséquent, M. Kachouroff et son cabinet ont été condamnés à une amende de 3 000 $, et une amende supplémentaire de 3 000 $ a été infligée à Mme DeMaster. Heureusement pour Lindell, ni lui ni MyPillow n'ont été sanctionnés, le tribunal ayant constaté que Kachouroff ne les avait pas informés de son utilisation régulière d'outils d'IA générative dans le cadre de son travail.

La défense des avocats concernant l'utilisation de l'IA n'est pas convaincante

Le mémoire, truffé d'IA, a été révélé pour la première fois en avril (https://mashable.com/article/mypillow-lawsuit-ai-lawyer-filing), lorsque le tribunal a interrogé Kachouroff sur son contenu. Kachouroff et DeMaster avaient déposé ce mémoire le 25 février, défendant Lindell dans un procès en diffamation (https://www.courtlistener.com/docket/63296393/coomer-v-lindell/) intenté par Eric Coomer, ancien employé de Dominion Voting Systems.

Cependant, le tribunal a identifié près de 30 citations erronées dans le document, notamment des citations erronées de décisions citées, des interprétations erronées de principes juridiques, des attributions erronées de décisions à la mauvaise juridiction, et même des citations de décisions inexistantes. En bref, une grande partie du mémoire était purement et simplement inventée. Interrogés, les avocats ont admis avoir utilisé l'IA pour préparer le mémoire. Kachouroff a déclaré utiliser régulièrement des outils d'IA tels que Co-Pilot de Microsoft, Gemini de Google et Grok de X. Malgré cela, ils ont affirmé avoir soumis par erreur une version antérieure dont les erreurs générées par l'IA n'avaient pas encore été corrigées. Ils ont donc demandé à être autorisés à déposer à nouveau le mémoire corrigé et à obtenir l'annulation de toute mesure disciplinaire à leur encontre. Cette semaine, le tribunal a rejeté leur demande de clémence, jugeant que les explications de Kachouroff et DeMaster concernant le mémoire rédigé par IA n'étaient pas convaincantes.

Les avocats ont fourni des échanges de courriels au cours desquels ils ont discuté des modifications apportées au mémoire avant son dépôt. Cependant, le tribunal a noté que la version finale issue de ces échanges était « substantiellement identique » au mémoire finalement soumis, y compris les mêmes erreurs. Par conséquent, bien que les avocats aient ultérieurement fourni au tribunal un document « correct » dont les erreurs ont été supprimées, rien ne prouve qu'il existait au moment du dépôt initial du mémoire par IA.

« En termes simples, ni les communications de l'avocat de la défense ni la version « finale » du mémoire qu'ils ont examinée ne corroborent l'existence de la version « correcte », a écrit Wang. « Ni M. Kachouroff ni Mme DeMaster n'ont fourni à la Cour d'explication quant à la manière dont ces citations sont apparues dans une quelconque version du mémoire, en l'absence de recours à l'intelligence artificielle générative ou de négligence grave de la part de l'avocat. »

Le tribunal a également relevé le « ton et la teneur étrangement provocateurs » de la réponse de Kachouroff à cette interpellation, ce qui ne lui a valu aucun point. Bien que Kachouroff ait affirmé avoir été « pris au dépourvu » et de fait déstabilisé par les questions du juge concernant les erreurs factuelles du mémoire, Wang a estimé qu'il était raisonnable de s'attendre à ce qu'un avocat soit prêt à discuter du contenu d'un document qu'il avait approuvé, signé et déposé au tribunal.

L'affirmation de Kachouroff selon laquelle cet incident lié au mémoire d'AI constituait un « écart manifeste » par rapport à sa pratique habituelle a également été réfutée, les avocats ayant discrètement déposé des corrections similaires sur des documents dans une autre affaire, une semaine seulement après la révélation des erreurs du mémoire.

« Ces corrections démontrent le même type d'erreurs dans le mémoire déposé, notamment des citations de cas inexistants », a noté Wang.

Les avocats de Lindell ne sont pas les premiers à avoir été victimes de l'IA générative, et ils ne seront malheureusement probablement pas les derniers. Ces dernières années, de nombreux juristes ont été surpris en train d'utiliser l'intelligence artificielle de manière inappropriée, nombre d'entre eux citant des cas inexistants inventés par des outils d'IA comme ChatGPT ou Google Bard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd