Incidents associés

Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.
Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de M. Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et «l'effet de péage de la suspension automatique d'un délai de prescription».
Il y avait juste un hic : personne - pas les avocats de la compagnie aérienne, pas même le juge lui-même - n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.
C'était parce que ChatGPT avait tout inventé.
L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est jeté à la merci du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques — " une source qui s'est révélée peu fiable.
M. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. M. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et "ignorait donc la possibilité que son contenu puisse être faux".
Il avait, dit-il au juge Castel, même demandé au programme de vérifier que les cas étaient réels.
Il avait dit oui.
M. Schwartz a déclaré qu'il "regrette profondément" de s'être appuyé sur ChatGPT "et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".
Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à "une circonstance sans précédent", une soumission légale remplie de "fausses décisions judiciaires, avec de fausses citations et de fausses citations internes". Il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.
Alors que l'intelligence artificielle balaie le monde en ligne, elle a évoqué des visions dystopiques d'ordinateurs remplaçant non seulement l'interaction humaine, mais aussi le travail humain. La peur a été particulièrement intense pour les travailleurs du savoir, dont beaucoup craignent que leurs activités quotidiennes ne soient pas aussi raréfiées que le monde le pense – mais pour lesquelles le monde paie des heures facturables.
Stephen Gillers, professeur d'éthique juridique à la faculté de droit de l'Université de New York, a déclaré que le problème était particulièrement aigu parmi les avocats, qui débattaient de la valeur et des dangers de l'IA. logiciel comme ChatGPT, ainsi que la nécessité de vérifier toutes les informations qu'il fournit.
"La discussion actuellement au sein du barreau est de savoir comment éviter exactement ce que cette affaire décrit", a déclaré M. Gillers. "Vous ne pouvez pas simplement prendre la sortie et la couper et la coller dans vos documents judiciaires."
Le cas réel de Roberto Mata c. Avianca Inc. montre qu'il reste peut-être au moins un peu de temps aux professions de cols blancs avant que les robots ne prennent le relais.
Cela a commencé lorsque M. Mata était passager du vol Avianca 670 d'El Salvador à New York le 27 août 2019, lorsqu'un employé de la compagnie aérienne l'a frappé avec le chariot de service, selon le procès. Après que M. Mata a intenté une action en justice, la compagnie aérienne a déposé des documents demandant que l'affaire soit rejetée car le délai de prescription avait expiré.
Dans un mémoire déposé en mars, les avocats de M. Mata ont déclaré que le procès devrait se poursuivre, renforçant leur argumentation avec des références et des citations des nombreuses décisions de justice qui ont depuis été démystifiées.
Bientôt, les avocats d'Avianca ont écrit au juge Castel, disant qu'ils étaient incapables de trouver les cas cités dans le mémoire.
En ce qui concerne Varghese c. China Southern Airlines, ils ont déclaré qu'ils n'avaient "pas été en mesure de localiser cette affaire par légende ou citation, ni aucune affaire ressemblant à celle-ci".
Ils ont souligné une longue citation de la prétendue décision Varghese contenue dans le mémoire. "Le soussigné n'a pas été en mesure de localiser cette citation, ni quoi que ce soit de semblable en tout cas", ont écrit les avocats d'Avianca.
En effet, ont ajouté les avocats, la citation, qui provenait de Varghese lui-même, citait quelque chose appelé Zicherman c. Korean Air Lines Co. Ltd., une opinion prétendument rendue par la Cour d'appel des États-Unis pour le 11e circuit en 2008. Ils ont dit qu'ils n'a pas pu le trouver non plus.
Le juge Castel a ordonné aux avocats de M. Mata de fournir des copies des opinions mentionnées dans leur mémoire. Les avocats ont soumis un recueil de huit; dans la plupart des cas, ils mentionnaient le tribunal et les juges qui les avaient délivrés, les numéros de rôle et les dates.
La copie de la prétendue décision Varghese, par exemple, fait six pages et indique qu'elle a été écrite par un membre d'un panel de trois juges du 11e circuit. Mais les avocats d'Avianca ont déclaré au juge qu'ils ne pouvaient pas trouver cette opinion, ni les autres, dans les registres des tribunaux ou les bases de données juridiques.
Bart Banino, avocat d'Avianca, a déclaré que son cabinet, Condon & Forsyth, était spécialisé dans le droit de l'aviation et que ses avocats pouvaient dire que les cas mentionnés dans le mémoire n'étaient pas réels. Il a ajouté qu'ils avaient une idée qu'un chatbot aurait pu être impliqué.
M. Schwartz n'a pas répondu à un message sollicitant des commentaires, pas plus que Peter LoDuca, un autre avocat du cabinet, dont le nom figurait sur le dossier.
M. LoDuca a déclaré dans un affidavit cette semaine qu'il n'avait mené aucune des recherches en question et qu'il n'avait "aucune raison de douter de la sincérité" du travail de M. Schwartz ou de l'authenticité des opinions.
ChatGPT génère des réponses réalistes en devinant quels fragments de texte doivent suivre d'autres séquences, basées sur un modèle statistique qui a ingéré des milliards d'exemples de texte extraits de partout sur Internet. Dans le cas de M. Mata, le programme semble avoir discerné le cadre labyrinthique d'un argument juridique écrit, mais l'a peuplé de noms et de faits d'une bouillabaisse de cas existants.
Le juge Castel, dans son ordonnance d'audience, a laissé entendre qu'il avait fait sa propre enquête. Il a écrit que le greffier du 11e circuit avait confirmé que le numéro de dossier imprimé sur la prétendue opinion de Varghese était lié à une affaire entièrement différente.
Qualifiant l'opinion de "faux", le juge Castel a noté qu'elle contenait des citations internes et des citations qui, à leur tour, étaient inexistantes. Il a déclaré que cinq des autres décisions soumises par les avocats de M. Mata semblaient également fausses.
Jeudi, les avocats de M. Mata ont présenté des affidavits contenant leur version de ce qui s'était passé.
M. Schwartz a écrit qu'il avait initialement déposé la plainte de M. Mata devant un tribunal d'État, mais après que la compagnie aérienne l'a fait transférer au tribunal fédéral de Manhattan, où M. Schwartz n'est pas autorisé à exercer, l'un de ses collègues, M. LoDuca, est devenu le avocat au dossier. M. Schwartz a dit qu'il avait continué à faire des recherches juridiques, dans lesquelles M. LoDuca n'avait aucun rôle.
M. Schwartz a indiqué qu'il avait consulté ChatGPT "pour compléter" ses propres travaux et que, "en consultation" avec lui, a trouvé et cité la demi-douzaine de cas inexistants. Il a déclaré que ChatGPT avait rassuré.
"Est-ce que Varghese est un cas réel", a-t-il tapé, selon une copie de l'échange qu'il a soumis au juge.
"Oui", a répondu le chatbot, offrant une citation et ajoutant qu'il s'agissait "d'un cas réel".
M. Schwartz a creusé plus profondément.
"Quelle est votre source", a-t-il écrit, selon le dossier.
"Je m'excuse pour la confusion plus tôt", a répondu ChatGPT, offrant une citation légale.
"Les autres cas que vous avez fournis sont-ils faux", a demandé M. Schwartz.
ChatGPT a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."
Mais, hélas, ils ne pouvaient pas l'être.
Sheelagh McNeil a contribué à la recherche.