
Un juge fédéral a condamné deux avocats représentant Mike Lindell, PDG de MyPillow, dans une affaire de diffamation au Colorado, à payer 3 000 dollars chacun après avoir utilisé l'intelligence artificielle pour préparer un dossier judiciaire rempli d'erreurs et de citations de cas inexistants.
Christopher Kachouroff et Jennifer DeMaster ont enfreint le règlement judiciaire en déposant ce document en février, contenant plus d'une vingtaine d'erreurs, notamment des cas hallucinés, c'est-à-dire de fausses affaires inventées par des outils d'IA, a statué lundi la juge Nina Y. Wang du tribunal de district américain de Denver.
« Malgré toute suggestion contraire, cette Cour ne tire aucun avantage à sanctionner les avocats qui comparaissent devant elle », a écrit Mme Wang dans sa décision. « En effet, les tribunaux fédéraux comptent sur l'assistance des avocats en tant qu'officiers de justice pour une administration efficace et équitable de la justice. »
L'utilisation de l'IA par les avocats au tribunal n'est pas illégale en soi. Cependant, Mme Wang a estimé que les avocats avaient enfreint une règle fédérale qui exige que les avocats certifient que leurs allégations sont « fondées » en droit. Il s'avère que les fausses affaires ne répondent pas à cette exigence.
Kachouroff et DeMaster n'ont pas répondu à la demande de commentaires de NPR.
Ce dossier judiciaire, truffé d'erreurs, faisait partie d'une affaire de diffamation impliquant Lindell, créateur de MyPillow, partisan du président Trump et théoricien du complot connu pour avoir répandu des mensonges sur l'élection de 2020. Le mois dernier, Lindell a perdu cette affaire, qui était plaidée devant Wang. Il a été condamné à payer plus de 2 millions de dollars à Eric Coomer, ancien employé de Dominion Voting Systems, basé à Denver, après avoir affirmé que Coomer et Dominion avaient utilisé du matériel électoral pour faire basculer les votes en faveur de Joe Biden.
Les sanctions financières et l'atteinte à la réputation des deux avocats constituent un rappel brutal pour les avocats qui, comme beaucoup d'autres, ont de plus en plus recours à l'intelligence artificielle dans leur travail, selon Maura Grossman, professeure à la David R. Cheriton School of Computer Science de l'Université de Waterloo et professeure adjointe de droit à la Osgoode Hall Law School de l'Université York.
Mme Grossman a déclaré que les amendes de 3 000 $ étaient « sous l'angle des choses, raisonnablement légères, étant donné qu'il ne s'agissait pas d'avocats novices, incapables de se justifier. Le type d'erreurs commises ici… était flagrant. » De nombreuses affaires très médiatisées ont été recensées où l'utilisation de l'IA générative a mal tourné, notamment chez les avocats et autres personnes déposant des plaintes, a déclaré Grossman. Cette pratique est devenue courante dans les tribunaux américains : les avocats sont sanctionnés pour avoir déposé des requêtes et autres documents judiciaires contenant des citations de cas fictives, créées par l'IA générative. Damien Charlotin suivi des affaires judiciaires du monde entier où l'IA générative a produit du contenu halluciné et où un tribunal a spécifiquement prononcé des avertissements ou d'autres sanctions. 206 cas ont été recensés jeudi, et ce seulement depuis le printemps, a-t-il déclaré à NPR. Il y avait très peu de cas avant avril, a-t-il précisé, mais depuis des mois, des cas « surgissent chaque jour ».
La base de données de Charlotin ne couvre pas tous les cas d'hallucination. Il a cependant déclaré : « Je soupçonne qu'il y en a beaucoup, beaucoup, beaucoup d'autres, mais beaucoup de tribunaux et de parties préfèrent ne pas en parler, car c'est très embarrassant pour toutes les personnes impliquées. »
Ce qui a mal tourné dans la plainte MyPillow
L'amende de 3 000 $ pour chaque avocat, a écrit la juge Wang dans son ordonnance cette semaine, est « la sanction la moins sévère pour dissuader et punir l'avocat de la défense dans cette affaire ».
Le juge a écrit que les deux avocats n'avaient fourni aucune explication valable sur la façon dont ces erreurs – « la plus flagrante étant la citation de cas inexistants » – avaient pu se produire.
Wang a également déclaré que Kachouroff et DeMaster n'avaient pas été très clairs lorsqu'on leur a demandé si la requête avait été générée par intelligence artificielle.
Kachouroff a répondu dans les documents judiciaires que c'était DeMaster qui avait « déposé par erreur » une version préliminaire de ce document plutôt que la copie correcte, plus soigneusement remaniée et ne contenant pas de cas hallucinés.
Mais Wang n'était pas convaincue que le dépôt du document constituait une « erreur involontaire ». En fait, elle a reproché à Kachouroff son manque d'honnêteté lorsqu'elle l'a interrogé.
« Ce n'est que lorsque la Cour a demandé directement à M. Kachouroff si l'Opposition était le produit de l'intelligence artificielle générative que M. Kachouroff a admis avoir effectivement utilisé l'intelligence artificielle générative », a écrit Wang.
Grossman a conseillé aux autres avocats se trouvant dans la même situation que Kachouroff de ne pas tenter de dissimuler l'affaire et de l'avouer au juge au plus vite.
« Vous risquez une sanction plus lourde si vous ne faites pas la lumière sur les faits », a-t-elle déclaré.
Charlotin a identifié trois problèmes principaux lorsque des avocats ou d'autres personnes utilisent l'IA pour déposer des documents judiciaires : le premier concerne les fausses affaires créées, ou hallucinées, par des chatbots IA.
Le deuxième problème est que l'IA crée une fausse citation à partir d'une affaire réelle.
Le troisième problème est plus difficile à repérer, a-t-il expliqué. Il se produit lorsque la citation et le nom de l'affaire sont corrects, mais que l'argument juridique cité n'est pas réellement étayé par l'affaire source, a expliqué Charlotin.
Cette affaire impliquant les avocats de MyPillow n'est qu'un microcosme du dilemme croissant que posent les tribunaux et les avocats pour trouver un équilibre entre l'accueil favorable aux technologies révolutionnaires et leur utilisation responsable au tribunal. L'utilisation de l'IA se développe plus vite que les autorités ne peuvent mettre en place des garde-fous pour son utilisation.
Selon Grossman, cette technologie est même utilisée pour présenter des preuves devant les tribunaux et pour fournir des déclarations d'impact sur les victimes (https://www.npr.org/2025/05/07/g-s1-64640/ai-impact-statement-murder-victim).
Cette année, un juge d'une cour d'appel de l'État de New York s'est montré furieux après qu'un plaignant, se représentant lui-même, ait tenté d'utiliser un avatar généré par l'IA, plus jeune et plus beau, pour défendre sa cause, a rapporté CNN. Cette tentative a été rapidement interrompue.
Malgré les mises en garde qui font la une des journaux, Grossman et Charlotin considèrent l'IA comme un outil incroyablement utile pour les avocats et prédisent qu'il sera davantage utilisé devant les tribunaux.
Les règles d'utilisation optimale de l'IA varient d'une juridiction à l'autre. Les juges ont établi leurs propres normes, exigeant des avocats et de ceux qui se représentent eux-mêmes devant les tribunaux qu'ils déclarent toute utilisation de l'IA. Dans quelques cas, les juges de Caroline du Nord, Ohio, Illinois et Montana ont établi diverses interdictions sur l'utilisation de l'IA dans leurs salles d'audience, selon une base de données créée par le cabinet d'avocats Ropes & Gray.
L'American Bar Association, représentant national de la profession juridique, a publié l'année dernière ses premières directives éthiques sur l'utilisation de l'IA. L'organisation a averti que, ces outils étant sujets à des erreurs, le recours aveugle des avocats au contenu créé par un outil d'intelligence artificielle générative peut entraîner des conseils juridiques inexacts pour les clients ou des déclarations trompeuses aux tribunaux et aux tiers.
Elle a ajouté : « Par conséquent, le recours ou la soumission par un avocat aux résultats d'un outil d'IA générative, sans vérification ou examen indépendant approprié, pourrait constituer une violation de son obligation de représentation compétente. »
Le Comité consultatif sur les règles de preuve, groupe chargé d'étudier et de recommander des modifications aux règles nationales de preuve pour les tribunaux fédéraux, a tardé à agir et travaille encore sur des amendements concernant l'utilisation de l'IA à des fins de preuve. (https://www.uscourts.gov/sites/default/files/document/2025-05_evidence_rules_committee_agenda_book_final.pdf)
En attendant, Grossman propose ce conseil à tous ceux qui utilisent l'IA : « Ne faites confiance à rien, vérifiez tout. »