Incidents associés

Un avocat de New York fait face à une audience au tribunal parce que son cabinet d'avocats a utilisé l'outil d'IA ChatGPT pour effectuer des recherches juridiques .
Le juge chargé de l'affaire a déclaré que le tribunal avait été confronté à une "circonstance sans précédent" lorsqu'il a été découvert que le dossier faisant référence à des affaires juridiques n'existait pas.
Au cours de la procédure judiciaire, l'avocat qui a utilisé l'outil d'IA a déclaré qu'il n'était pas au courant de la possibilité que les informations qu'il générait puissent être fausses.
ChatGPT a la capacité de générer du texte original sur demande, mais il est accompagné d'une mise en garde indiquant qu'il peut parfois fournir des informations inexactes.
Dans l'affaire initiale, un homme a intenté une action en justice contre une compagnie aérienne, alléguant des dommages corporels. Son équipe juridique a soumis un mémoire faisant référence à plusieurs affaires judiciaires passées dans le but d'établir un précédent et de justifier pourquoi l'affaire devrait se poursuivre.
Cependant, les avocats représentant la compagnie aérienne a ensuite écrit au juge, exprimant son incapacité à localiser certains des cas mentionnés dans le mémoire.
Le juge Castel a écrit dans une ordonnance: "Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes." De plus, le juge a également demandé à l'équipe juridique de l'homme de s'expliquer.
Cas inexistants
Comme reconnu dans un affidavit, le tribunal a déterminé que les cas suivants étaient inexistants :
1. Varghese contre China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
2. Shaboon contre Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
3. Petersen contre Iran Air 905 F. Supp 2d 121 (DDC 2012)
4. Martinez c.Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 septembre 2019)
5. Succession de Durden contre KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 juin 2017)
6. Miller contre United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
Le tribunal exige une explication
Au cours de multiples soumissions, il a été révélé que la recherche juridique en question n'avait pas été menée par l'avocat du plaignant, Peter LoDuca, mais plutôt par l'un de ses collègues du même [cabinet d'avocats] (https://greekreporter.com/2023/ 18/04/greece-hires-us-law-firm-turkaegean-trademark/).
Steven A Schwartz, un avocat avec plus de 30 ans d'expérience, a utilisé ChatGPT pour rechercher des cas antérieurs similaires, selon la BBC.
Dans sa déclaration écrite, M. Schwartz a précisé que M. LoDuca n'était pas impliqué dans le processus de recherche et n'avait aucune connaissance de la façon dont il avait été mené.
M. Schwartz a exprimé de profonds remords de s'être appuyé sur le chatbot, admettant qu'il ne l'avait jamais utilisé pour des recherches juridiques auparavant et qu'il n'était pas conscient du potentiel de contenu inexact.
Il s'est engagé à s'abstenir d'utiliser l'IA pour "compléter" ses recherches juridiques à l'avenir sans vérification approfondie de son authenticité.
Les deux avocats ont reçu l'ordre de fournir une explication sur les raisons pour lesquelles des mesures disciplinaires ne devraient pas être prises à leur encontre lors d'une audience prévue le 8 juin.