Incidents associés

Un avocat de New York s'est retrouvé en difficulté avec un juge après avoir soumis une recherche juridique qui avait été créée par l'intelligence artificielle (AI) chatbot ChatGPT.
Au cours d'une affaire concernant une compagnie aérienne poursuivie pour préjudice corporel présumé, les avocats du plaignant ont déposé un mémoire contenant plusieurs affaires à utiliser comme précédent juridique. Malheureusement, comme admis plus tard dans un affidavit, les cas suivants ont été « jugés inexistants » par le tribunal :
Varghese contre China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) Shaboon contre Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen c. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
Martinez contre Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 septembre 2019)
Estate of Durden contre KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 juin 2017)
Miller contre United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
La "recherche" a été compilée par l'avocat Steven A. Schwartz, un avocat avec plus de 30 ans d'expérience selon la BBC . Schwartz a déclaré dans l'affidavit qu'il n'avait jamais utilisé ChatGPT pour des recherches juridiques auparavant et qu'il "ignorait la possibilité que son contenu soit faux".
Des captures d'écran dans l'affidavit montrent l'avocat demandant au chatbot "est-ce que c'est un vrai cas", auquel le chatbot a répondu "oui". Lorsqu'on lui a demandé des sources, il a déclaré à l'avocat que l'affaire pouvait être trouvée "sur des bases de données de recherche juridique telles que Westlaw et LexisNexis". Lorsqu'on lui a demandé "les autres cas que vous avez fournis sont-ils faux", il a répondu "Non", ajoutant qu'ils pouvaient être trouvés sur les mêmes bases de données.
Aussi amusants que puissent être les chatbots, ou aussi avancés qu'ils puissent paraître, ils sont toujours sujets aux "hallucinations" - des réponses parfaitement cohérentes qui n'ont aucun rapport avec le monde réel.
Sans une vérification approfondie des faits, ce n'est pas vraiment un outil que vous devriez utiliser lorsque vous essayez de rechercher une affaire judiciaire qui s'appuie sur des précédents réels plutôt que sur les hallucinations d'un [spicy autocomplete](https://twitter.com/solomania/status /1625458520811339777?lang=fr).
L'avocat a écrit qu'il "regrette profondément d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici" et s'engage à "ne jamais le faire à l'avenir sans une vérification absolue de son authenticité".
Schwartz et l'avocat Peter LoDuca, qui n'étaient pas au courant que ChatGPT avait été utilisé lors de la recherche sur l'affaire, doivent faire face à une audience le 8 juin au sujet de l'incident.