Incidents associés
Un avocat qui s'est appuyé sur ChatGPT pour préparer un dossier judiciaire au nom d'un homme poursuivant une compagnie aérienne n'est que trop familier avec les lacunes de l'outil d'intelligence artificielle, y compris sa propension à inventer des faits.
Roberto Mata a poursuivi la compagnie aérienne colombienne Avianca l'année dernière, alléguant qu'un chariot métallique de nourriture et de boissons s'était blessé au genou lors d'un vol vers l'aéroport international Kennedy à New York. Lorsqu'Avianca a demandé à un juge de Manhattan de rejeter l'action en justice sur la base du délai de prescription, l'avocat de Mata, Steven A. Schwartz, a soumis un mémoire basé sur des recherches effectuées par ChatGPT, Schwartz, du cabinet d'avocats Levidow, Levidow & Oberman, a déclaré dans un affidavit.
Bien que ChatGPT puisse être utile aux professionnels de nombreux secteurs, y compris la profession juridique, il s'est avéré à la fois limité et peu fiable. Dans ce cas, l'IA a inventé des affaires judiciaires qui n'existaient pas et a affirmé qu'elles étaient réelles.
Les fabrications ont été révélées lorsque les avocats d'Avianca ont approché le juge de l'affaire, Kevin Castel du district sud de New York, affirmant qu'ils ne pouvaient pas localiser les affaires citées dans le mémoire des avocats de Mata dans les bases de données juridiques.
Les décisions inventées comprenaient des affaires intitulées Martinez contre Delta Air Lines, Zicherman contre Korean Air Lines et Varghese contre China Southern Airlines.
"Il semblait clair lorsque nous n'avons reconnu aucun des cas dans leur mémoire d'opposition que quelque chose n'allait pas", a déclaré l'avocat d'Avianca, Bart Banino, de Condon & Forsyth, à CBS MoneyWatch. "Nous avons pensé que c'était une sorte de chatbot quelconque."
Schwartz a répondu dans un affidavit la semaine dernière, affirmant qu'il avait "consulté" ChatGPT pour "compléter" ses recherches juridiques, et que l'outil d'IA était "une source qui s'est révélée peu fiable". Il a ajouté que c'était la première fois qu'il utilisait ChatGPT pour le travail et "n'était donc pas conscient de la possibilité que son contenu puisse être faux".
Il a dit qu'il avait même pressé l'IA de confirmer que les cas cités étaient réels. ChatGPT a confirmé que c'était le cas. Schwartz a ensuite demandé à l'IA sa source.
La réponse de ChatGPT ? "Je m'excuse pour la confusion plus tôt", a-t-il déclaré. L'IA a ensuite déclaré que l'affaire Varghese pouvait être localisée dans les bases de données Westlaw et LexisNexis.
Le juge Castel a fixé une audience concernant le snafu juridique pour le 8 juin et a ordonné à Schwartz et au cabinet d'avocats Levidow, Levidow & Oberman d'expliquer pourquoi ils ne devraient pas être sanctionnés.
Levidow, Levidow & Oberman n'ont pas pu être contactés dans l'immédiat pour commenter.