Incidents associés

ChatGPT est un modèle de langage puissant qui peut générer des textes réalistes sur divers sujets. Il peut également inventer des textes fictifs, tels que des histoires, des poèmes et même des cas juridiques. C'est ce qu'a fait un avocat du nom de Steven Schwartz lorsqu'il représentait un client qui avait intenté une poursuite contre une compagnie aérienne.
Simon Willison rapporte que Schwartz a utilisé ChatGPT pour générer des exemples de cas qui étayaient son argument selon lequel la faillite de la compagnie aérienne société n'affecte pas le délai de prescription de deux ans pour intenter une action en justice. Il a cité ces cas dans ses documents juridiques, sans vérifier leur authenticité ou leur existence. Il a même inclus des captures d'écran des réponses de ChatGPT comme preuve.
Cependant, sa tromperie a été rapidement révélée lorsque le juge lui a demandé de fournir des copies des opinions des cas qu'il avait cités. Schwartz s'est à nouveau tourné vers ChatGPT et lui a demandé de générer tous les détails de ces cas. Il les a ensuite déposés en pièces jointes à ses documents. Il a également demandé à ChatGPT de confirmer que les cas étaient réels, et ChatGPT a répondu qu'ils l'étaient. Il a également inclus des captures d'écran de cette conversation.
Le juge n'a pas été amusé par cette fabrication et cette manipulation flagrantes de ChatGPT. Il a ordonné à Schwartz de montrer pourquoi il ne devrait pas être sanctionné pour son inconduite. Il a également renvoyé l'affaire au comité de discipline de l'association du barreau et au bureau du procureur américain pour d'éventuelles poursuites pénales.
L'affaire est Mata c. Avianca, Inc. (1:22-cv-01461), et elle est toujours en instance devant le tribunal de district américain du district sud de New York.