Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4827

Incidents associés

Incident 96011 Rapports
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
L'IA qui invente des dossiers peut entraîner le licenciement d'avocats, prévient un cabinet d'avocats scandalisé
arstechnica.com · 2025

Morgan & Morgan, qui se présente comme « le plus grand cabinet d'avocats spécialisé dans les dommages corporels aux États-Unis » qui se bat « pour le peuple », a appris à ses dépens ce mois-ci que même un avocat citant aveuglément une jurisprudence hallucinée par l'IA peut risquer de ternir la réputation d'un cabinet national tout entier.

Dans une lettre communiquée dans un dossier judiciaire, le directeur de la transformation de Morgan & Morgan, Yath Ithayakumar, a averti les plus de 1 000 avocats du cabinet que citer de faux dossiers générés par l'IA dans des dossiers judiciaires pourrait être un motif de sanction disciplinaire, y compris de « licenciement ».

« C'est un problème grave », a écrit Ithayakumar. « L'intégrité de votre travail juridique et votre réputation en dépendent. »

Les problèmes d'IA de Morgan & Morgan ont été déclenchés par un procès affirmant que Walmart était impliqué dans la conception d'un jouet hoverboard prétendument défectueux qui aurait provoqué l'incendie d'une maison familiale. Bien qu'il soit un plaideur expérimenté, Rudwin Ayala, l'avocat principal du cabinet dans cette affaire, a cité huit cas dans un dossier judiciaire que les avocats de Walmart n'ont pu trouver nulle part ailleurs que sur ChatGPT.

Ces « cas cités n'existent apparemment nulle part ailleurs que dans le monde de l'intelligence artificielle », ont déclaré les avocats de Walmart, [(https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.150.0.pdf) exhortant le tribunal à envisager des sanctions.

Jusqu'à présent, le tribunal n'a pas statué sur d'éventuelles sanctions. Mais Ayala a été immédiatement retiré de l'affaire et a été remplacé par son superviseur direct, T. Michael Morgan, Esq. Exprimant son « grand embarras » face aux fausses citations d'Ayala qui ont fait perdre du temps au tribunal, Morgan a conclu un accord avec les avocats de Walmart pour payer tous les frais et dépenses liés à la réponse au dossier judiciaire erroné, qui, selon Morgan, devrait servir de « récit édifiant » à la fois pour son entreprise et « toutes les entreprises ».

Reuters a constaté que les avocats citant de manière inappropriée des cas d'hallucinations par l'IA ont brouillé les litiges dans au moins sept affaires au cours des deux dernières années. Certains avocats ont été sanctionnés, notamment dans une affaire en juin dernier qui a infligé une amende de 5 000 dollars à des avocats pour avoir cité des « charabia » de chatbot dans des dossiers. Et dans au moins un cas au Texas, a rapporté Reuters, un avocat a été condamné à une amende de 2 000 dollars et à suivre un cours sur l'utilisation responsable de l'IA générative dans les applications juridiques. Mais dans un autre incident très médiatisé, Michael Cohen, l'ancien avocat de Donald Trump, a évité les sanctions après que Cohen ait accidentellement donné à son propre avocat trois fausses citations de cas pour aider sa défense dans son litige pénal en matière fiscale et de financement de campagne.

Dans un dossier judiciaire, Morgan a expliqué qu'Ayala était seul responsable des citations d'IA dans l'affaire Walmart. Personne d'autre impliqué « n'avait connaissance ou même remarqué » que le dossier judiciaire erroné « contenait un contenu généré par l'IA, et encore moins un contenu halluciné », a déclaré Morgan, insistant sur le fait que s'il l'avait su, il aurait demandé à Ayala de vérifier indépendamment toutes les citations.

« Le risque qu'un tribunal puisse s'appuyer sur des cas inventés et les incorporer dans notre corpus de common law est une pensée nauséabonde et effrayante », a déclaré Morgan, s'excusant « profondément » auprès du tribunal tout en reconnaissant que l'IA peut être « dangereuse lorsqu'elle est utilisée avec négligence ».

En outre, a déclaré Morgan, il est clair que son cabinet doit travailler davantage pour former les avocats aux outils d'IA que le cabinet utilise depuis novembre 2024 et qui étaient destinés à soutenir - et non à remplacer - les avocats dans leurs recherches sur les dossiers. Malgré les avertissements du cabinet aux avocats selon lesquels l'IA peut halluciner ou fabriquer des informations, Ayala a déclaré de manière choquante qu'il croyait « à tort » que le « support IA interne » du cabinet était « tout à fait capable » non seulement de faire des recherches mais aussi de rédiger des mémoires.

« Ce dossier profondément regrettable est une dure leçon pour moi et notre cabinet alors que nous entrons dans un monde dans lequel l'intelligence artificielle devient de plus en plus étroitement liée à la pratique quotidienne », a déclaré Morgan au tribunal. « Bien que l'intelligence artificielle soit un outil puissant, c'est un outil qui doit être utilisé avec précaution. Il n'y a pas de raccourcis en droit. »

Andrew Perlman, doyen de la faculté de droit de l'université de Suffolk, plaide pour une utilisation responsable de l'IA devant les tribunaux et a déclaré à Reuters que les avocats citant ChatGPT ou d'autres outils d'IA sans vérifier les résultats sont « de l'incompétence, tout simplement ».

Morgan & Morgan a refusé la demande d'Ars de commenter.

Un cabinet d'avocats apporte des changements pour empêcher les citations par l'IA

Morgan & Morgan veut s'assurer que personne d'autre au sein du cabinet ne commette les mêmes erreurs qu'Ayala. Dans la lettre envoyée à tous les avocats, Ithayakumar a réitéré que l'IA ne peut pas être utilisée uniquement pour rechercher des cas ou rédiger des mémoires de manière fiable, car « l'IA peut générer des réponses plausibles qui peuvent être des informations entièrement fabriquées ».

« Comme tous les avocats le savent (ou devraient le savoir), il a été prouvé que l'IA invente parfois de la jurisprudence, avec des citations, des arrêts et même des citations directes fabriqués », indique sa lettre. « Comme nous vous l'avons déjà indiqué, si vous utilisez l'IA pour identifier des cas à citer, chaque cas doit être vérifié de manière indépendante ».

Alors que Harry Surden, un professeur de droit qui étudie les questions juridiques liées à l'IA, a déclaré à Reuters que « les avocats ont toujours fait des erreurs », il a également suggéré qu'une dépendance croissante aux outils d'IA dans le domaine juridique exige que les avocats améliorent leurs connaissances en IA pour comprendre pleinement « les forces et les faiblesses des outils ». (Une enquête Reuters de juillet 2024 a révélé que 63 % des avocats ont utilisé l'IA et que 12 % l'utilisent régulièrement, après que des experts ont signalé un changement de paradigme alimenté par l'IA dans le domaine juridique en 2023.)

Chez Morgan & Morgan, il est devenu clair en 2025 qu'une meilleure formation à l'IA est nécessaire dans l'ensemble de son cabinet national. Morgan a déclaré au tribunal que l'équipe technologique et les membres de la gestion des risques du cabinet se sont réunis pour « discuter et mettre en œuvre d'autres politiques pour éviter qu'un autre incident ne se reproduise à l'avenir ».

De plus, une case à cocher reconnaissant le potentiel de l'IA pour les hallucinations a été ajoutée, et elle doit être cochée avant que tout avocat du cabinet puisse accéder à la plateforme d'IA interne.

« De plus, des mesures de protection et des formations sont en cours de discussion pour se protéger contre toute utilisation erronée de l'intelligence artificielle », a déclaré Morgan au tribunal.

On ne sait pas si ces efforts aideront Morgan & Morgan à éviter les sanctions, mais Ithayakumar a suggéré qu'au même titre que les sanctions, la crédibilité du cabinet ou de tout avocat pourrait être affectée.

« Se fier aveuglément à l'IA équivaut à citer un cas non vérifié », a déclaré Ithayakumar aux avocats, affirmant qu'il est de leur « responsabilité et obligation éthique » de vérifier les résultats de l'IA. « Le non-respect des exigences de vérification de l'IA peut entraîner des sanctions judiciaires, des mesures disciplinaires professionnelles, des mesures disciplinaires de la part du cabinet (pouvant aller jusqu'au licenciement) et une atteinte à la réputation. Chaque avocat doit se tenir informé des règles et ordonnances spécifiques liées à l'IA dans les juridictions où il exerce et respecter strictement ces obligations. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd