Incidents associés
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/cmg/AC4F3WFS6FCTDKYJR7BGIEDID4.jpg)
Un avocat qui a utilisé ChatGPT pour aider à la recherche d'un procès pourrait faire face à des sanctions après avoir découvert que le chatbot d'intelligence artificielle avait pris des décisions de justice pertinentes pour soutenir le cas de son client.
Steven A. Schwartz, qui a utilisé les informations fournies par le ChatGPT pour intenter une action contre un homme poursuivant une compagnie aérienne, s'est excusé auprès du juge en déclarant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour l'aider à faire ses recherches juridiques - "une source qui s'est révélé peu fiable », Le New York Times a rapporté.
Schwartz représente Roberto Mata, qui prétend avoir été blessé lors d'un vol sur Avianca Airlines.
Les problèmes de Schwartz avec ChatGPT ont commencé lorsqu'il a utilisé le chatbot pour trouver des cas pour renforcer le dossier de Mata contre Avianca après avoir déclaré qu'il avait été touché au genou et blessé par un chariot de rafraîchissement roulant.
Avianca a demandé au juge de rejeter l'affaire parce qu'elle avait dépassé le moment où Mata avait été autorisée à poursuivre après l'incident présumé, et les avocats de Mata ont répondu avec un mémoire de 10 pages qui indiquait des cas similaires alors qu'ils demandaient que le procès se poursuive.
Les affaires citées, avec des noms tels que Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines, comprenaient des arguments qui ont renforcé le cas de Mata. Cependant, lorsque les avocats d'Avianca ont essayé de trouver les décisions sur les affaires, ils n'ont pas pu.
Le juge non plus.
Le juge Kevin Castel a ensuite demandé aux avocats de Mata d'expliquer ce qui avait été soumis.
Schwartz a expliqué qu'en plus de ses propres recherches, il avait utilisé ChatGPT pour trouver des cas pertinents et, apparemment, ChatGPT avait inventé les cas, y compris les opinions qui les accompagnaient.
Schwartz a expliqué au tribunal qu'il n'avait jamais utilisé ChatGPT auparavant et "n'était donc pas au courant de la possibilité que son contenu puisse être faux".
Selon l'affidavit qu'il a soumis au juge Castel, il avait demandé au programme de vérifier que les cas étaient réels.
ChatGPT avait dit qu'ils l'étaient.
"Est-ce que Varghese est un cas réel", a déclaré Schwartz, selon une copie de l'échange qu'il a soumise au juge.
"Oui", a répondu le chatbot, offrant une citation et ajoutant qu'il s'agissait "d'un cas réel".
Schwartz a ensuite demandé au chatbot où il l'avait trouvé.
"Quelle est votre source", a-t-il écrit, selon le dossier. "Je m'excuse pour la confusion plus tôt", a répondu ChatGPT, offrant une citation légale.
"Les autres cas que vous avez fournis sont-ils faux", a demandé Schwartz.
ChatGPT a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."
Les affaires n'ont pas pu être trouvées par les avocats de Mata, les avocats de la compagnie aérienne ni par le juge.
Le juge Castel a demandé une audience, pour permettre à Schwartz d'expliquer pourquoi il ne devrait pas être sanctionné pour avoir fourni des informations trompeuses au tribunal.