L'équipe juridique de Mike Lindell, PDG de MyPillow et adepte des théories du complot électoral, est dans une situation délicate après avoir déposé un dossier judiciaire généré par l'IA, [comme le rapporte le New York Times](https://www.nytimes.com/2025/07/08/us/judge-fines-lawyers-mypillow-ai.html]. Le dossier juridique était truffé d'erreurs, notamment de citations erronées de cas cités, de déformations de principes juridiques et de références à des cas inexistants.
Au total, le tribunal a identifié une trentaine d'erreurs majeures dans le document. La juge du Colorado, Nina Wang, a infligé des amendes pour ce dépôt entaché d'erreurs, déclarant que les avocats Christopher Kachouroff et Jennifer DeMaster, du cabinet McSweeney, Cynkar et Kachouroff, avaient enfreint les règles fédérales de procédure civile et qu'ils n'avaient pas « déraisonnablement certifié que les réclamations, défenses et autres arguments juridiques contenus dans le mémoire d'IA » étaient justifiés par le droit en vigueur.
DeMaster et Kachouroff ont été condamnés à une amende de 6 000 $ pour cette infraction. Lindell et MyPillow n'ont pas été sanctionnés pour ce dépôt irrégulier, le tribunal ayant constaté que Kachouroff n'avait pas informé son client qu'il utilisait régulièrement des outils d'IA tels que Microsoft CoPilot, Google Gemini et même Grok.
Interrogés, les avocats ont admis avoir utilisé l'IA pour préparer le mémoire, mais ont affirmé avoir accidentellement soumis une version antérieure dont les erreurs n'avaient pas encore été corrigées. Kachouroff a déclaré qu'ils disposaient d'un mémoire corrigé au moment de la soumission, mais qu'ils ne pouvaient fournir aucune preuve à l'appui de cette affirmation. L'équipe a demandé l'abandon de toute mesure disciplinaire potentielle à leur encontre, mais le tribunal a refusé, estimant que l'explication concernant le mémoire rédigé par l'IA n'était pas convaincante.
« En termes simples, ni les communications de l'avocat de la défense ni la version "finale" du mémoire qu'ils ont examinée ne corroborent l'existence de la version "correcte" », a écrit Wang. « Ni M. Kachouroff ni Mme DeMaster n'ont fourni à la Cour d'explication quant à la manière dont ces citations sont apparues dans une version du mémoire, sans recours à l'intelligence artificielle générative ou faute grave de la part de l'avocat. »
Le mémoire a été initialement présenté en février, alors que l'équipe défendait Lindell dans une action en diffamation intentée par Eric Coomer, ancien employé de Dominion Voting Systems. Un jury a depuis tranché en faveur de Coomer.
Bien sûr, ce n'est pas la première fois que des avocats tentent de contourner le recours à l'IA. Au cours des dernières années, de nombreux professionnels du droit ont été surpris en train d'utiliser de manière inappropriée l'intelligence artificielle, et nombre d'entre eux ont cité de faux cas citant des cas fictifs grâce à des outils comme ChatGPT.