Incidentes Asociados

Steven Schwartz, abogado del bufete de abogados estadounidense Levidow & Oberman, se enfrentará a una audiencia de sanciones el 8 de junio de 2023 después de presentar un informe lleno de casos ficticios y citaciones judiciales fabricadas.
Schwartz estaba representando al pasajero de la aerolínea Roberto Mata en una demanda por negligencia contra las aerolíneas Avianca y usó ChatGPT en su investigación legal.
El escrito citaba casos que se decidieron entre 1999 y 2019 para respaldar el argumento de Schwartz de que el caso debería ser escuchado a pesar de que estaba más allá del plazo de prescripción. Sin embargo, ni el juez ni los abogados de la aerolínea pudieron encontrar las decisiones o citas resumidas.
El juez Kevin Castel, del Distrito Sur de Nueva York, afirmó que al menos seis de los casos presentados “parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”.
“A la corte se le presenta una circunstancia sin precedentes”, escribió Castel.
El juzgado se encuentra ante una circunstancia inédita.
Juez Kevin Castel, Nueva York
El informe de Schwartz incluía casos ficticios inventados por ChatGPT, incluidos Varghese contra China South Airlines, Shaboon contra EgyptAir, Martinez contra Delta Airlines, Miller contra United Airlines, Petersen contra Iran Air y Estate of Durden contra KLM Royal Dutch Airlines.
En una declaración jurada, Schwartz admitió que "no estaba al tanto de la posibilidad de que el contenido de [ChatGPT] pudiera ser falso". Asumió toda la responsabilidad por no verificar las fuentes y lamentó mucho “haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada”.
Schwartz prometió "nunca volver a hacerlo [de nuevo] en el futuro sin una verificación absoluta de su [ChatGPT] autenticidad".
Después de que se le ordenara que mostrara motivos por los que no debería ser sancionado, Schwartz incluyó capturas de pantalla de sus intentos de confirmar la autenticidad de los casos con ChatGPT.
"¿Es Varghese un caso real?" Schwartz le preguntó a ChatGPT.
“Sí, es un caso real”, respondió el chatbot.
Schwartz le pidió a ChatGPT que confirmara su fuente, a lo que respondió: “Luego de verificar dos veces, encontré que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), de hecho existe y puede se pueden encontrar en bases de datos de investigación legal como Westlaw y LexisNexis”.
“Me disculpo por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”, escribió ChatGPT.
Schwartz también le preguntó al chatbot si alguno de los otros casos proporcionados era falso y ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".
El profesor de ética legal Stephen Gillers, de la Facultad de Derecho de la Universidad de Nueva York, dijo al New York Times que el caso ilustra lo que los abogados no deben hacer.
“No se puede simplemente tomar la salida y cortarla y pegarla en sus documentos judiciales”, dijo Gillers.