Incidents associés

Un juge fédéral a intenté une action en justice et infligé une amende de 5 000 $ aux avocats du plaignant après avoir utilisé ChatGPT pour rechercher des documents judiciaires citant six faux cas inventés par l'outil d'intelligence artificielle créé par OpenAI.
Les avocats Steven Schwartz et Peter LoDuca du cabinet Levidow, Levidow, & Oberman "ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à s'en tenir aux faux avis après l'examen judiciaire. les ordonnances ont remis leur existence en question », a écrit le juge de district américain Kevin Castel dans une commande hier. Les avocats, a écrit Castel, "ont plaidé pour les faux cas et arguments juridiques" même "après avoir été informés par la soumission de leur adversaire que leurs citations étaient inexistantes et introuvables".
Le juge a imposé une amende de 5 000 $ à payer par les deux avocats et leur cabinet sous responsabilité conjointe et solidaire. Plus embarrassant pour les avocats, ils sont tenus d'envoyer des lettres à six vrais juges qui ont été "faussement identifiés comme l'auteur des faux" avis cités dans leurs documents judiciaires. Castel a décrit l'analyse juridique dans l'un des faux cas comme du "charabia".
"La Cour exigera des intimés qu'ils informent leur client et les juges dont les noms ont été invoqués à tort des sanctions infligées", a écrit Castel. "La Cour n'exigera pas d'excuses de la part des défendeurs car des excuses forcées ne sont pas des excuses sincères. Toute décision de présenter des excuses est laissée aux défendeurs."
Soumettre de fausses opinions à un tribunal nuit au client des avocats, fait perdre du temps au tribunal, oblige la partie adverse à perdre "du temps et de l'argent à dénoncer la tromperie" et cause "un préjudice potentiel à la réputation des juges et des tribunaux dont les noms sont faussement invoqués". en tant qu'auteurs des fausses opinions et à la réputation d'un parti attribué à une conduite fictive », a écrit Castel. "Cela encourage le cynisme à l'égard de la profession d'avocat et du système judiciaire américain. Et un futur justiciable peut être tenté de défier une décision de justice en invoquant de manière malhonnête le doute sur son authenticité."
Affaire rejetée
Comme nous l'avons écrit le mois dernier, Schwartz a admis avoir utilisé ChatGPT pour la recherche et n'a pas vérifié si les "avis juridiques" fournis par le chatbot AI étaient exacts. Schwartz a écrit dans un affidavit qu'il n'avait "jamais utilisé ChatGPT comme source pour mener des recherches juridiques avant cet événement et n'était donc pas au courant de la possibilité que son contenu puisse être faux".
La véritable affaire, Roberto Mata contre Avianca, a été déposée à l'origine devant un tribunal de l'État de New York, mais a été transférée au tribunal de district américain du district sud de New York. Schwartz représentait Mata devant un tribunal d'État mais n'a pas été admis à exercer devant le tribunal fédéral. Schwartz a continué à rédiger les mémoires juridiques et LoDuca les a déposés sous son propre nom.
Mata a demandé des dommages-intérêts pour les blessures subies lors d'un vol Avianca d'El Salvador à New York en août 2019 lorsqu'un chariot de collations et de boissons en métal a heurté son genou. Les avocats de Mata ont utilisé les fausses citations de ChatGPT pour faire valoir que l'affaire devrait être renvoyée devant le tribunal de l'État de New York, où un délai de prescription de trois ans s'appliquerait.
Sans surprise, leur argument citant des cas bidons n'a pas convaincu le juge. En plus de punir les avocats, Castel a accordé la requête d'Avianca pour rejeter le cas. Le juge a convenu avec le défendeur qu'un délai de prescription de deux ans en vertu de la Convention de Montréal s'applique et que la poursuite du demandeur a été déposée trop tard.
"Je n'ai jamais pensé que ça pouvait être inventé"
Le différend sur les faux précédents s'est déroulé sur quelques mois. Le 1er mars, les avocats de Mata ont cité les faux cas dans un brief qui s'opposait Requête d'Avianca pour rejeter l'affaire.
"Mais si l'affaire s'était terminée avec des intimés révélant leurs actions peu de temps après avoir reçu le mémoire du défendeur du 15 mars remettant en question l'existence des affaires, ou après avoir examiné les ordonnances de la Cour des 11 et 12 avril exigeant la production des affaires, le dossier maintenant serait tout à fait différent », a écrit Castel. "Au lieu de cela, les intimés individuels ont doublé et n'ont commencé à révéler la vérité que le 25 mai, après que la Cour a rendu une ordonnance de justification pour laquelle l'un des intimés individuels ne devrait pas être sanctionné."
Castel a conclu que les avocats étaient coupables de "mauvaise foi" et "d'actes d'évitement conscient et de déclarations fausses et trompeuses à la Cour". Alors que Schwartz a rédigé les faux documents juridiques, LoDuca n'a pas vérifié leur exactitude.
"M. LoDuca s'est simplement appuyé sur la conviction que le travail produit par M. Schwartz, un collègue de plus de vingt-cinq ans, serait fiable", a écrit Castel. Mais la pratique de Schwartz était exclusivement devant un tribunal d'État. Les avocats ont admis dans un mémoire de loi que Schwartz avait tenté "de rechercher un problème de faillite fédérale avec lequel il n'était absolument pas familier".
Lors d'une audience le 8 juin sur les sanctions potentielles, Schwartz a témoigné qu'il "opérait sous la fausse perception que ce site Web [ChatGPT] ne pouvait pas fabriquer des cas par lui-même". Schwartz a déclaré: "Je ne pensais tout simplement pas que l'affaire pouvait être fabriquée, donc je ne l'examinais pas de ce point de vue ... Ma réaction a été que ChatGPT trouve cette affaire quelque part. Peut-être qu'elle n'est pas publiée. Peut-être qu'elle a fait l'objet d'un appel . Peut-être que l'accès est difficile à obtenir. Je n'aurais simplement jamais pensé que cela pourrait être inventé.
La société Levidow n'avait pas de comptes Westlaw ou LexisNexis, mais utilisait à la place un compte Fastcase qui avait un accès limité aux affaires fédérales. Schwartz a témoigné qu'il "a entendu parler de ce nouveau site que j'ai supposé - j'ai supposé à tort qu'il ressemblait à un super moteur de recherche appelé ChatGPT, et c'est ce que j'ai utilisé".
Selon Castel, "Schwartz a témoigné qu'il avait commencé par interroger ChatGPT pour obtenir des conseils juridiques généraux, puis avait limité ses questions aux cas qui étayaient l'argument selon lequel le sursis à la faillite fédéral prévoyait le délai de prescription pour une réclamation en vertu de la Convention de Montréal."
Schwartz a faussement affirmé que ChatGPT ne faisait que "compléter" ses recherches, a écrit Castel. Schwartz a admis plus tard que toute sa recherche consistait à interroger ChatGPT. "C'est devenu mon dernier recours", a-t-il témoigné.
En avril, le juge a rendu des ordonnances ordonnant à LoDuca de déposer des copies des précédents que personne n'a pu localiser. LoDuca a demandé une prolongation de délai, affirmant qu'il était absent du bureau en vacances.
"La déclaration de M. LoDuca était fausse et il savait qu'elle était fausse au moment où il a fait la déclaration. Interrogé par la Cour lors de l'audience sur les sanctions, M. LoDuca a admis qu'il n'était pas absent du bureau en vacances", a écrit Castel. . LoDuca a témoigné que Schwartz était absent et que "j'ai juste tenté d'obtenir de M. Schwartz le temps supplémentaire dont il avait besoin parce qu'il n'était pas au bureau à ce moment-là".
Selon Castel, ce "mensonge a eu pour effet de dissimuler le rôle de M. Schwartz dans la préparation de l'Affirmation du 1er mars et de l'Affidavit du 25 avril et de dissimuler le manque de rôle significatif de M. LoDuca dans la confirmation de la véracité des déclarations dans son affidavit. C'est preuve de la mauvaise foi subjective de M. LoDuca."
Les documents déposés le 25 avril comprenaient une série d'"extraits" des fausses décisions. Le dossier "n'était pas conforme aux ordonnances de la Cour des 11 et 12 avril car il ne joignait le texte intégral d'aucun des" cas "qui sont désormais reconnus comme faux", a écrit Castel.
"Charabia", "à la limite du non-sens"
Le faux Varghese v. China Southern Airlines extrait soumis par LoDuca et Schwartz, soi-disant émis par la Cour d'appel des États-Unis pour le 11e circuit, "montre des défauts de style et de raisonnement qui n'apparaissent généralement pas dans les décisions rendues par les cours d'appel des États-Unis", a écrit Castel. "Son analyse juridique est du charabia... Le résumé de l'historique procédural de l'affaire est difficile à suivre et frise le non-sens."
La décision Varghese "comprend également des citations internes et des citations de décisions qui sont elles-mêmes inexistantes", a noté le juge. Les autres faux précédents soumis au tribunal présentaient des défauts similaires.
Malgré cela, les avocats n'ont jamais "écrit à cette Cour pour demander le retrait de l'Affirmation d'opposition du 1er mars ou pour informer la Cour qu'elle ne peut plus s'y fier", a écrit Castel.
Castel a également constaté que Schwartz avait agi de mauvaise foi et violé une règle fédérale lorsque, dans son affidavit du 25 avril, il n'a pas révélé qu'il ne pouvait pas trouver les décisions complètes citées dans son précédent dossier. "Des recherches médiocres et bâclées auraient simplement été objectivement déraisonnables. Mais M. Schwartz était conscient des faits qui l'ont alerté sur la forte probabilité que 'Varghese' et 'Zicherman' n'existaient pas et a consciemment évité de confirmer ce fait", a écrit Castel.
"La mauvaise foi subjective de M. Schwartz est en outre étayée par l'affirmation mensongère selon laquelle ChatGPT n'était qu'un" complément "à ses recherches, ses récits contradictoires concernant ses questions à ChatGPT quant à savoir si" Varghese "est un cas" réel "et l'échec divulguer le recours à ChatGPT dans l'affidavit du 25 avril", a ajouté le juge.
Certains changements sont en cours au cabinet d'avocats pour éviter que le fiasco ne se reproduise. Thomas Corvino, l'unique associé du cabinet Levidow, "a reconnu sa responsabilité, identifié les mesures correctives prises par le cabinet Levidow, y compris un abonnement étendu à Fastcase et une programmation CLE \ [formation juridique continue ], et a exprimé ses regrets pour les soumissions des répondants ", a écrit Castel.
Le juge ne pense pas que cela se reproduira. "La Cour rend hommage à la sincérité des intimés lorsqu'ils ont décrit leur embarras et leurs remords", a écrit Castel. "Les faux cas n'ont pas été soumis pour le gain financier d'un répondant et n'ont pas été faits par animosité personnelle. Les répondants n'ont pas d'antécédents de violations disciplinaires et il y a une faible probabilité qu'ils répètent les actions décrites ici."