Incidents associés
Il semble que ChatGPT soit enclin à commettre les mêmes erreurs que les humains lorsqu'ils font des recherches sur la loi.
Un avocat spécialisé dans les dommages corporels à New York risque d'être sanctionné après avoir utilisé ChatGPT pour trouver des affaires juridiques qui aideraient son client dans un procès contre la compagnie aérienne Avianca.
Le seul problème est que les cas cités par ChatGPT n'existent pas.
Steven A. Schwartz - un avocat du cabinet d'avocats Levidow, Levidow & Oberman qui exerce depuis 1991, selon Law & Crime - a déclaré qu'il "s'appuyait sur les avis juridiques qui lui avaient été fournis par une source qui s'est révélée ne pas être fiable."
Dans une lettre au tribunal, Schwartz a ajouté qu'il n'avait jamais utilisé ChatGPT pour une affaire auparavant, il "ignorait donc la possibilité que son contenu puisse être faux".
Schwartz et son cabinet d'avocats représentent Roberto Mata, un homme qui poursuit Avianca après avoir été blessé par un chariot de service en métal qui est entré en collision avec son genou lors d'un vol.
Avianca a demandé le rejet de la poursuite au motif que le délai de prescription dans l'affaire avait expiré. Cependant, les avocats de Mata se sont opposés à la requête et ont cité plusieurs cas à l'appui de leur position juridique.
Après que les avocats d'Avianca aient examiné les affaires, ils ont découvert que six d'entre elles n'existaient pas.
"Le défendeur soutient respectueusement que l'authenticité de bon nombre de ces cas est discutable", a déclaré Avianca avocats.
Quelques-uns des cas qui ont été soumis existaient, mais "ils traitent de questions sans aucun rapport avec les principes pour lesquels le demandeur les a cités en opposition à la requête des défendeurs".
Schwartz, son co-avocat et son cabinet d'avocats doivent maintenant comparaître devant le tribunal le 8 juin pour faire face à d'éventuelles sanctions pour l'erreur.
Schwartz a publié une capture d'écran de sa conversation avec ChatGPT dans sa lettre au tribunal.
Lorsqu'on lui a demandé sa source pour avoir cité l'un des cas inexistants, le chatbot a répondu :
"Je m'excuse pour la confusion de tout à l'heure. Après vérification, j'ai découvert que l'affaire... existe bel et bien et peut être trouvée dans des bases de données de recherche juridique telles que Westlaw et LexisNexis [c'est un mensonge car les affaires ne sont pas réelles]. Je m'excuse pour tout inconvénient ou confusion que mes réponses précédentes ont pu causer."
Lorsqu'on lui a demandé si les autres cas fournis par le bot étaient faux, il a répondu :
"Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées..."