Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6184

Incidents associés

Incident 114526 Rapports
MyPillow Defense Lawyers in Coomer v. Lindell Reportedly Sanctioned for Filing Court Document Allegedly Containing AI-Generated Legal Citations

Loading...
Les avocats du PDG de MyPillow sanctionnés pour avoir déposé un dossier judiciaire généré par l'IA contenant de fausses citations
usaherald.com · 2025
  1. Un juge fédéral condamne les avocats de Mike Lindell à payer 3 000 $ chacun pour avoir déposé une requête générée par l'IA contenant près de 30 citations défectueuses et des références à des affaires inexistantes.
  2. L'avocat principal a admis avoir soumis un projet de requête à l'IA sans vérification appropriée, déléguant la vérification des faits à un co-avocat qui n'a pas validé les citations.
  3. Une décision de justice souligne l'importance cruciale pour la profession juridique d'établir des normes de compétence en matière d'IA et des protocoles d'ingénierie rapides appropriés pour les cabinets d'avocats.

Un juge fédéral a adressé un avertissement sévère à la profession juridique concernant les dangers d'une utilisation abusive de l'intelligence artificielle, en condamnant deux avocats représentant Mike Lindell, PDG de MyPillow, à des amendes de 3 000 $ chacun pour avoir déposé un document judiciaire truffé d'erreurs générées par l'IA, notamment des citations de cas tout simplement inexistants.

La juge fédérale Nina Y. Wang a statué lundi que Christopher Kachouroff et Jennifer DeMaster avaient enfreint le règlement du tribunal en déposant une requête contenant près de 30 citations fausses ou défectueuses dans le cadre de l'affaire en diffamation de Lindell. Ces sanctions soulignent une crise croissante dans la pratique juridique, les avocats ayant de plus en plus recours à l'IA sans garanties adéquates ni compréhension de leurs limites.

Ce dépôt vicié est issu d'un procès en diffamation controversé intenté par Eric Coomer, ancien directeur de la sécurité chez Dominion Voting Systems, contre Lindell et ses sociétés. Coomer a fait valoir avec succès que Lindell l'avait diffamé en répandant des rumeurs selon lesquelles il aurait participé à des fraudes électorales. Un jury lui a accordé 2,3 millions de dollars de dommages et intérêts en juin 2024 – bien moins que les 62,7 millions de dollars réclamés, mais tout de même une victoire significative.

L'affaire portait sur le rôle de Lindell dans la promotion des allégations selon lesquelles Coomer aurait manipulé les systèmes de vote en faveur de Joe Biden lors de l'élection de 2020. Selon Coomer, ces allégations ont donné lieu à des menaces de mort, le contraignant à se cacher et lui coûtant finalement sa carrière dans la sécurité électorale.

Le désastre juridique a commencé lorsque Kachouroff a déposé ce qui semblait être une requête d'opposition standard le 25 février 2025. Cependant, lorsque le juge Wang a remis en question les nombreuses erreurs de citation lors d'une conférence préliminaire, une tendance inquiétante est apparue.

Interrogé directement par le tribunal, Kachouroff a fait un aveu préjudiciable : « Pas au départ. Au départ, j'ai fait un plan moi-même, j'ai rédigé une requête, puis nous l'avons soumise à l'IA. » Lorsque Wang a insisté sur la vérification, lui demandant s'il « avait revérifié les citations une fois le document soumis à l'intelligence artificielle »,, la réponse de Kachouroff a été dévastatrice : « Votre Honneur, je ne l'ai pas personnellement vérifié. Je suis responsable de son absence de vérification. »

Plus inquiétant encore, Kachouroff a affirmé que le document truffé d'erreurs avait été déposé par accident – une version « brouillon ». Pourtant, le juge Wang a constaté que la version prétendument « finale » qu'il comptait déposer contenait des erreurs substantielles supplémentaires, suggérant une défaillance totale des procédures de contrôle qualité.

Dans le monde juridique, une « hallucination » d'IA désigne une situation où un modèle linguistique fabrique des faits, des citations ou des citations qui semblent réels, mais qui sont totalement faux. Contrairement à une idée reçue, ces hallucinations ne sont pas des bugs ; il s'agit d'une caractéristique connue des modèles génératifs qui tentent d'imiter le raisonnement humain sans comprendre la vérité.

Les avocats qui utilisent l'IA doivent comprendre que le contenu généré par l'IA doit être traité au mieux comme une ébauche, et non comme un produit final prêt à être présenté au tribunal. L'absence de vérification élémentaire de la part de l'avocat de Lindell démontre non seulement un manque de diligence raisonnable, mais aussi une incapacité à comprendre ce qu'est et n'est pas l'IA.

Ce qu'ils auraient dû faire à la place Si les avocats avaient compris les principes fondamentaux de l'ingénierie rapide et les limites de l'IA, ils auraient pu utiliser leur version initiale pour demander l'assistance de l'IA avec plus de précision. Par exemple :

Exemple de modèle de demande de rédaction juridique sécurisée avec l’IA :

« À l’aide du projet de motion ci-dessous, peaufinez le langage pour le rendre plus convaincant et juridiquement solide, mais ne fabriquez pas de jurisprudence. Citez uniquement des sources juridiques vérifiées et réelles et incluez des citations exactes et textuelles des affaires citées. Indiquez clairement les sources ou citations qui doivent être vérifiées manuellement avant la soumission. »

INSTRUCTIONS IMPORTANTES : - Conservez toutes les citations originales telles qu’elles ont été fournies ; - Signalez toute affirmation juridique nécessitant un soutien supplémentaire ; - Ne fabriquez pas de sources juridiques, de noms d’affaires ou de citations ; - Conservez les arguments juridiques originaux tout en améliorant la présentation.

Les avocats doivent ensuite vérifier l’exactitude de chaque citation et de chaque citation. Ce processus préserve les atouts de l’IA (clarté, structure, persuasion) sans risquer un contenu non vérifié ou fictif.

Cette approche aurait permis aux avocats de tirer parti des atouts de l’IA en matière d’organisation et d’amélioration du texte, tout en évitant le piège fatal des citations fabriquées.

Le faux pas de la délégation : une erreur fatale La délégation par Kachouroff des tâches de vérification des citations à DeMaster sans s’assurer qu’elles ont été correctement effectuées met en évidence une deuxième erreur critique : l’échec du leadership juridique et de la responsabilité. Dans une profession où les normes éthiques et l’exactitude sont primordiales, déléguer du contenu généré par l’IA sans surveillance constitue un manquement au devoir.

Le juge Wang a été clair : les sanctions prononcées étaient « la sanction la moins sévère adéquate pour dissuader et punir l’avocat de la défense dans ce cas ». Pourtant, pour la communauté juridique, les conséquences sont bien plus durables.

Le juge Wang a noté que « cette Cour ne tire aucun plaisir à sanctionner les avocats qui comparaissent devant elle »,, décrivant les amendes de 3 000 $ comme « la sanction la moins sévère adéquate pour dissuader et punir l’avocat de la défense dans ce cas ». Cependant, les implications plus larges vont bien au-delà de ces sanctions individuelles.

La profession juridique a un besoin urgent de programmes obligatoires de formation et de certification en IA. Les barreaux et les exigences actuelles en matière de formation continue n'ont pas suivi le rythme des avancées technologiques, laissant les praticiens vulnérables au type de négligence professionnelle démontré dans cette affaire.

L'impact global

Cette affaire ne concerne pas seulement deux avocats sanctionnés : c'est un signal d'alarme pour l'ensemble de la profession juridique. À mesure que les outils d'IA deviennent de plus en plus sophistiqués et accessibles, la tentation de les utiliser sans les garanties adéquates ne fera que croître.

Les conséquences d'une surveillance inadéquate de l'IA vont au-delà de la simple gêne professionnelle. La représentation des clients en pâtit, les ressources des tribunaux sont gaspillées et la confiance du public dans les institutions juridiques s'érode lorsque les avocats ne respectent pas les normes professionnelles de base.

L'affaire Lindell offre plusieurs enseignements essentiels aux praticiens du droit :

  1. L'IA est un outil, et non un substitut au jugement et à la vérification professionnels
  2. Déléguer sans supervision constitue une négligence professionnelle, quel que soit l'outil utilisé
  3. La vérification des citations doit être effectuée par des humains, et non par des systèmes d'IA
  4. Une formation adéquate est essentielle avant la mise en œuvre de l'IA dans la pratique juridique

Pour que la profession juridique intègre avec succès les outils d'IA, les praticiens doivent comprendre leurs capacités et leurs limites. Cela nécessite de dépasser les simples approches par essais et erreurs pour adopter des protocoles de mise en œuvre structurés et professionnels.

L'avenir de la pratique juridique inclura sans aucun doute l'assistance de l'IA, mais uniquement pour ceux qui prendront le temps de comprendre comment utiliser ces outils de manière responsable. L'alternative, comme l'ont appris Kachouroff et DeMaster, se traduit par des sanctions professionnelles et une atteinte à la réputation qui auraient pu être facilement évitées.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd