Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4826

Incidents associés

Incident 96011 Rapports
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
L’échec de ChatGPT pour un grand cabinet d’avocats
davidlat.substack.com · 2025

Nous connaissons tous la tristement célèbre histoire des avocats qui ont déposé un dossier rempli de fausses affaires, grâce à ChatGPT, l’outil d’IA qui a inventé ou « halluciné » les fausses citations. Au final, le juge Kevin Castel (S.D.N.Y.) a sanctionné les avocats, à hauteur de 5 000 dollars, mais la notoriété nationale était certainement bien pire.

Les avocats fautifs, Steven Schwartz et Peter LoDuca, travaillaient dans un petit cabinet d’avocats new-yorkais du nom de Levidow, Levidow & Oberman. Et il semble que leur erreur soit due en partie à des contraintes de ressources, auxquelles les petits cabinets sont souvent confrontés. Comme ils l’ont expliqué au juge Castel lors de l’audience sur les sanctions, à l’époque, leur cabinet n’avait pas accès à Westlaw ou à LexisNexis – qui sont, comme nous le savons tous, extrêmement chers – et le type d’abonnement qu’ils avaient à Fastcase ne leur donnait pas un accès complet aux affaires fédérales.

Mais qu’en est-il des avocats qui travaillent pour l’un des plus grands cabinets d’avocats du pays ? Ils ne devraient pas avoir d’excuse, n’est-ce pas ?

Qu’ils aient une excuse ou non, il semble qu’ils puissent eux aussi commettre la même erreur. Hier, la juge Kelly Rankin du district du Wyoming a émis une ordonnance de présentation de cause dans Wadsworth v. Walmart Inc. (souligné dans l'original) :

Cette affaire est portée devant la Cour de sa propre initiative. Le 22 janvier 2025, les plaignants ont déposé leurs requêtes in limine. [ECF No. 141]. Les plaignants y ont cité neuf cas au total :

1. Wyoming c. Département de l'énergie des États-Unis, 2006 WL 3801910 (D. Wyo. 2006) ;

2. Holland c. Keller, 2018 WL 2446162 (D. Wyo. 2018) ;

3. États-Unis c. Hargrove, 2019 WL 2516279 (D. Wyo. 2019) ;

4. Meyer c. Ville de Cheyenne, 2017 WL 3461055 (D. Wyo. 2017) ;

5. États-Unis c. Caraway, 534 F.3d 1290 (10e Cir. 2008) ;

6. Benson c. État du Wyoming, 2010 WL 4683851 (D. Wyo. 2010) ;

7. Smith c. États-Unis, 2011 WL 2160468 (D. Wyo. 2011) ;

8. Woods c. BNSF Railway Co., 2016 WL 165971 (D. Wyo. 2016) ; et

9. Fitzgerald c. Ville de New York, 2018 WL 3037217 (S.D.N.Y. 2018).

Voir [ECF No. 141].

Le problème avec ces affaires est qu’il n’en existe aucune, à l’exception de United States v. Caraway, 534 F.3d 1290 (10th Cir. 2008). Les affaires ne sont pas identifiables par leur référence Westlaw, et la Cour ne peut pas localiser les affaires du District du Wyoming par leur nom d’affaire dans son système local de dépôt électronique des dossiers judiciaires. Les défendeurs affirment par l’intermédiaire de leur avocat que « au moins certaines de ces affaires mal citées peuvent être trouvées sur ChatGPT ». [ECF No. 150] (fournissant une image de ChatGPT localisant « Meyer v. City of Cheyenne_ » grâce au faux identifiant Westlaw).

Comme on pouvait s’y attendre, le juge Rankin n’est… pas content :

Confrontés à des situations similaires, les tribunaux ont ordonné aux avocats déposants de montrer les raisons pour lesquelles des sanctions ou des mesures disciplinaires ne devraient pas être prononcées. Mata c. Avianca, Inc., n° 22-CV-1461 (PKC), 2023 WL 3696209 (S.D.N.Y. 4 mai 2023) ; États-Unis c. Hayes, n° 2:24-CR-0280-DJC, 2024 WL 5125812 (E.D. Cal. 16 décembre 2024) ; États-Unis c. Cohen, n° 18-CR-602 (JMF), 2023 WL 8635521 (S.D.N.Y. 12 décembre 2023). En conséquence, la Cour ordonne ce qui suit :

IL EST ORDONNÉ qu’au moins un des trois avocats fournisse une copie fidèle et exacte de tous les cas utilisés à l’appui de [ECF No. 141], à l’exception de United States v. Caraway, 534 F.3d 1290 (10th Cir. 2008), au plus tard à 12 h 00, heure normale des Rocheuses, le 10 février 2025.

Et s’ils ne peuvent pas fournir les cas en question, les avocats « doivent séparément justifier par écrit pourquoi il ou elle ne devrait pas être sanctionné en vertu de : (1) Fed. R. Civ. P. 11(b), (c) ; (2) 28 U.S.C. § 1927 ; et (3) du pouvoir inhérent de la Cour d’ordonner des sanctions pour avoir cité des cas inexistants à la Cour. » Et cette soumission écrite, attendue le 13 février, « prendra la forme d’une déclaration sous serment » qui contiendra « une explication détaillée de la manière dont la requête et les fausses affaires ont été générées », ainsi qu’une explication de chaque avocat sur « son rôle dans la rédaction ou la supervision de la requête ».

Qui sont les avocats derrière cette apparente bourde ? Ils sont nommés par leur nom à la page trois de l’ordonnance :

Les trois avocats soussignés de [ECF No. 141] sont :

  • M. Rudwin Ayala ;

  • Mme Taly Goody ; et

  • M. Timothy Michael Morgan.

Comme vous pouvez le constater à partir des signatures sur les motions in limine, Taly Goody travaille chez Goody Law Group, un cabinet basé en Californie qui semble avoir trois avocats. Mais Rudwin Ayala et Michael Morgan travaillent chez le géant Morgan and Morgan, qui se décrit sur son site Web comme « le plus grand cabinet d’avocats spécialisé dans les dommages corporels aux États-Unis™ » et est le 42e cabinet du pays en termes d’effectifs, selon The American Lawyer.

Morale de l’histoire : les avocats des grands cabinets peuvent utiliser ChatGPT à mauvais escient aussi bien que n’importe qui. Et même si Morgan and Morgan est un cabinet de plaignants – ce qui pourrait amener les avocats snobs des grands cabinets de défense à dire, avec une pointe de hauteur, « Bien sûr que c’est le cas » – je pense que ce n’est qu’une question de temps avant qu’un cabinet de défense, classé Am Law 100, ne commette une erreur similaire dans un dossier public.

Ces histoires d’« avocats impliqués dans l’échec de ChatGPT » ont tendance à être populaires auprès des lecteurs, ce qui est l’une des raisons pour lesquelles j’ai écrit celle-ci – mais je ne veux pas exagérer leur importance. Comme je l’ai dit à Bridget McCormack et Zach Abramowitz sur le AAAi Podcast, « ChatGPT ne commet pas ces erreurs ; ce sont les humains qui utilisent ChatGPT de manière inappropriée qui commettent ces erreurs. » Mais ces histoires deviennent parfois virales parce qu’elles ont une certaine valeur de nouveauté : l’IA est, du moins dans le monde de la pratique juridique, encore (relativement) nouvelle.

Le danger, cependant, est que les histoires de « l’échec de ChatGPT » pourraient avoir un effet dissuasif, en termes de dissuasion des avocats d’explorer (de manière responsable) comment l’IA et d’autres technologies transformatrices peuvent les aider à servir leurs clients de manière plus efficace et efficiente. Comme McCormack l’a dit sur le podcast AAAi après que j’ai mentionné la débâcle du S.D.N.Y., « Je suis toujours en colère contre cet avocat du district sud de New York parce que j’ai l’impression qu’il a fait reculer toute la profession de deux ans. Je suis littéralement tellement en colère contre ce type. »

J’ai contacté Ayala, Goody et Morgan par e-mail, mais je n’ai pas encore eu de réponse ; si et quand j’en aurai, je mettrai à jour ce message. Sinon, connectez-vous la semaine prochaine, quand ils déposeront leurs réponses à l’ordonnance de présentation des motifs.

Et en attendant, si vous comptez sur ChatGPT ou un autre outil d’IA pour vos recherches juridiques, veuillez utiliser une véritable plateforme de recherche juridique pour confirmer que (1) les cas existent et (2) vous les avez cités avec précision. Ce n’est pas trop demander, n’est-ce pas ?

MISE À JOUR (17h21) : Si vous souhaitez vous renseigner sur la manière dont vous pouvez exploiter l'IA de manière responsable pour mieux servir vos clients, consultez ces excellentes ressources de Hotshot — et vous pouvez même obtenir un crédit CLE pour cela (selon votre juridiction).

MISE À JOUR (08/02/2025, 00h48) : Les trois avocats représentant les plaignants dans Wadsworth v. Walmart ont retiré leurs requêtes in limine vendredi soir, comme l'a rapporté Law360 — ils savent donc probablement qu'il y a des problèmes avec eux. Mais les avocats n'ont pas encore expliqué pourquoi les requêtes contiennent ce qui semble être des autorités fabriquées.

L’article de Law360 contient également quelques détails sur le procès lui-même : « Le litige sous-jacent a été déposé en juillet 2023 par Stephanie et Matthew Wadsworth au nom de leurs quatre enfants mineurs après qu’ils ont allégué qu’un « hoverboard défectueux et déraisonnablement dangereux » a explosé et pris feu dans leur maison. La famille allègue que le produit, un hoverboard Jetson Plasma Iridescent, est défectueux, dangereux et a mal fonctionné alors qu’il était utilisé de la manière prévue. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd