Incidents associés

Un avocat d'un cabinet respecté de Tribeca a admis avoir cité plusieurs «fausses» poursuites qui, selon lui, avaient renforcé son dossier – parce qu'il avait utilisé un chatbot d'intelligence artificielle pour aider à rédiger le dossier du tribunal fédéral de Manhattan.
L'aveu choquant de Steven Schwartz, un avocat du cabinet Levidow, Levidow & Oberman, est intervenu après qu'il a [demandé à ChatGPT](https://nypost.com/2023/05/14/can-chatgpt-help-you-land-your -next-dream-job/) pour trouver des cas pertinents pour le procès de son client – seulement pour que le bot les fabrique entièrement, selon les documents judiciaires.
Le snafu a commencé après que le partenaire juridique de Schwartz, Paul LoDuca, a intenté une action en justice contre la compagnie aérienne colombienne Avianca au nom de Robert Mata, qui aurait été blessé lorsqu'un chariot de service en métal lui a heurté le genou lors d'un vol à destination de New York.
Lorsque les avocats de la compagnie aérienne ont demandé au tribunal de porter plainte, Schwartz a déposé un mémoire qui aurait cité plus d'une demi-douzaine d'affaires pertinentes.
Il n'y avait qu'un seul problème : les affaires, telles que Miller c. United Airlines, Petersen c. Iran Air et Varghese c. China Southern Airlines, étaient complètement inventées [par ChatGPT](https://nypost.com/2023/05 /30/nvidia-hits-1t-in-market-value-on-booming-chatgpt-ai-demand/).
"Le tribunal est confronté à une circonstance sans précédent", a écrit le juge fédéral de Manhattan P. Kevin Castel dans un [document du 4 mai](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts .nysd.575368.31.0.pdf), rapporté pour la première fois par The New York Times samedi , appelant Schwartz et LoDucan à comparaître pour une audience le 8 juin pour faire face à d'éventuelles sanctions concernant le dépôt de sourcils.
"Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a écrit Castel.
Dans un affidavit sous serment déposé la semaine dernière, Schwartz a admis avoir utilisé ChatGPT pendant compilant les documents que Loduca a déposés, écrivant qu'il "s'est appuyé sur les avis juridiques qui lui ont été fournis par une source qui s'est révélée peu fiable".
Le mea culpa signé a poursuivi en disant que Schwartz "n'était pas au courant de la possibilité que son contenu [ChatGPT] puisse être faux".
L'avocat en disgrâce a également déclaré au juge qu'il "regrette beaucoup" d'utiliser l'IA pour la "recherche" juridique et "ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".
Peter Loduca a écrit la semaine dernière dans un affidavit qu'il n'était pas impliqué dans le méfait et « n'avait aucune raison de douter de l'authenticité de la jurisprudence » fabriquée dans le document.
Loduca a ajouté qu'il avait travaillé avec Schwartz pendant 25 ans et qu'il ne s'était jamais souvenu qu'il avait cherché à "induire en erreur" un tribunal.