Incidentes Asociados

El abogado Steven Schwartz de Levidow, Levidow & Oberman ha ejercido la abogacía durante tres décadas. Ahora, un caso puede descarrilar por completo toda su carrera.
¿Por qué? Se basó en ChatGPT en sus [archivos legales(opens in a new tab)](https://www.courtlistener.com/docket/63107798/mata-v -avianca-inc/?filed_after=&filed_before=&entry_gte=&entry_lte=&order_by=desc) y el chatbot de IA fabricó por completo casos anteriores, que Schwartz citó, de la nada.
Todo comienza con el caso en cuestión, Mata v. Avianca. Según el New York Times(opens in a new tab), una Avianca(opens in a new tab), en una nueva pestaña)](https://www.avianca.com/us/en/) el cliente llamado Roberto Mata estaba demandando a la aerolínea después de que un carrito de servicio se lesionara la rodilla durante un vuelo. Avianca intentó que un juez desestimara el caso. En respuesta, los abogados de Mata se opusieron y presentaron un escrito con una serie de decisiones judiciales similares en el pasado. Y ahí es donde entró ChatGPT.
Schwartz, el abogado de Mata que presentó el caso en la corte estatal y luego proporcionó investigación legal una vez que se transfirió a la corte federal de Manhattan, dijo que usó el popular chatbot de OpenAI para "complementar" sus propios hallazgos.
ChatGPT proporcionó a Schwartz varios nombres de casos similares: Varghese contra China Southern Airlines, Shaboon contra Egyptair, Petersen contra Iran Air, Martinez contra Delta Airlines, Estate of Durden contra KLM Royal Dutch Airlines y Miller contra United Airlines .
¿El problema? ChatGPT inventó por completo todos esos casos. Ellos no existen.
El equipo legal de Avianca y el juez asignado a este caso pronto se dieron cuenta de que no podían localizar ninguna de estas decisiones judiciales. Esto llevó a Schwartz a explicar lo sucedido en una declaración jurada el jueves. El abogado se había referido a ChatGPT para obtener ayuda con su presentación.
Según Schwartz, "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso". El abogado incluso proporcionó capturas de pantalla al juez de sus interacciones con ChatGPT y le preguntó al chatbot de IA si uno de los casos era real. ChatGPT respondió que sí. Incluso confirmó que los casos se podían encontrar en "bases de datos legales acreditadas". ninguno de ellos pudo ser encontrado porque todos los casos fueron creados por el chatbot.
Es importante tener en cuenta que ChatGPT, como todos los chatbots de IA, es un modelo de lenguaje entrenado para seguir instrucciones y proporcionar al usuario una respuesta a su solicitud. Eso significa que, si un usuario le pide información a ChatGPT, podría darle exactamente lo que está buscando, incluso si no es un hecho.
El juez ordenó una audiencia el próximo mes para "discutir posibles sanciones" para Schwartz en respuesta a esta "circunstancia sin precedentes". Esa circunstancia nuevamente es que un abogado presenta un informe legal utilizando decisiones judiciales falsas y citaciones que le proporcionó ChatGPT.