Incidentes Asociados

Un juez federal de la ciudad de Nueva York ordenó a dos abogados y su bufete de abogados que demuestren motivos por los que no deberían ser sancionados por presentar un escrito con citaciones de casos falsos, gracias a la investigación de ChatGPT.
El juez superior de distrito de EE. UU. P. Kevin Castel del Distrito Sur de Nueva York dijo en una [orden del 4 de mayo] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd. 575368.31.0.pdf) el archivo legal de la firma estaba "repleto de citas de casos inexistentes".
Cuando Castel ordenó a uno de los abogados que presentara una declaración jurada con las opiniones citadas, cumplió, pero seis de las decisiones "parecen ser falsas" con "citas falsas y citas internas falsas", dijo Castel.
ChatGPT proporcionó los casos falsos, según una declaración jurada del 25 de mayo de abogado Steven A. Schwartz de Levidow, Levidow & Oberman. Ha ejercido la abogacía en Nueva York durante más de 30 años.
"Affiant nunca ha utilizado ChatGPT como fuente para realizar una investigación legal antes de este incidente y, por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso", escribió Schwartz.
ChatGPT había asegurado a Schwartz que los casos que citaba eran reales "y se pueden encontrar en bases de datos legales acreditadas, como LexisNexis y Westlaw", según las consultas y respuestas que Schwartz presentó ante el tribunal.
Otro abogado que firmó el escrito de Schwart, Peter LoDuca, no estaba al tanto del método de investigación de Schwartz, dijo Schwartz. LoDuca se convirtió en abogado de registro después de que su caso fuera trasladado al Distrito Sur de Nueva York, donde Schwartz no ha obtenido admisión.
La audiencia de demostración de causa está programada para el 8 de junio, según una orden del 26 de mayo de Castel.
Las publicaciones que cubren el caso incluyen New York Times y Volokh Conspiracy ([aquí](https ://reason.com/volokh/2023/05/27/a-lawyers-filing-is-replete-with-citations-to-non-existent-cases-thanks-chatgpt/?comments=true#comments) y aquí), que enlaza con una página del caso de CourtListener.
Schwartz no respondió de inmediato a la solicitud de comentarios del ABA Journal, que fue enviada por correo electrónico y correo de voz. LoDuca le dijo al ABA Journal que no tiene ningún comentario en este momento.
Schwartz y LoDuca representan al demandante Roberto Mata en una demanda contra la aerolínea Avianca Inc. Mata dijo que resultó herido cuando fue golpeado por un carrito de servicio de metal.
"El caso real de Roberto Mata v. Avianca Inc. muestra que a las profesiones de cuello blanco les puede quedar al menos un poco de tiempo antes de que los robots tomen el control", según el New York Times.
The Volokh Conspiracy señaló que algunos litigantes que se representan a sí mismos también están usando ChatGPT.