Incidentes Asociados
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/cmg/AC4F3WFS6FCTDKYJR7BGIEDID4.jpg)
Un abogado que usó ChatGPT para ayudar en la investigación de una demanda podría enfrentar sanciones después de que se descubriera que el chatbot de inteligencia artificial tomó decisiones judiciales relevantes para respaldar el caso de su cliente.
Steven A. Schwartz, quien usó información provista por ChatGPT para presentar una demanda por un hombre que demandó a una aerolínea, se disculpó con el juez y dijo en una declaración jurada que había usado el programa de inteligencia artificial para ayudar en su investigación legal: “una fuente que se ha revelado como poco confiable”, informó The New York Times.
Schwartz representa a Roberto Mata, quien afirma que resultó herido en un vuelo de Avianca Airlines.
El problema de Schwartz con ChatGPT comenzó cuando usó el chatbot para encontrar casos para reforzar el caso de Mata contra Avianca después de que dijo que un carrito de refrescos lo golpeó en la rodilla y lo lesionó.
Avianca le pidió al juez que desestimara el caso porque había pasado el tiempo en que Mata podía demandar después del supuesto incidente, y los abogados de Mata respondieron con un escrito de 10 páginas que apuntaba a casos similares y solicitaban que la demanda siguiera adelante.
Los casos citados, con nombres como Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines, incluían argumentos que respaldaban el caso de Mata. Sin embargo, cuando los abogados de Avianca intentaron encontrar las decisiones sobre los casos, no pudieron.
El juez tampoco.
El juez Kevin Castel luego pidió a los abogados de Mata que explicaran lo que se había presentado.
Schwartz explicó que además de su propia investigación, había usado ChatGPT para encontrar casos relevantes y, aparentemente, ChatGPT había inventado los casos, incluidas las opiniones que los acompañaban.
Schwartz explicó al tribunal que nunca antes había usado ChatGPT y "por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso".
Según la declaración jurada que presentó al juez Castel, le había pedido al programa que verificara que los casos eran reales.
ChatGPT había dicho que lo eran.
“Es varghese un caso real”, dijo Schwartz que escribió, según una copia del intercambio que presentó al juez.
“Sí”, respondió el chatbot, ofreciendo una cita y agregando que “es un caso real”.
Schwartz luego le preguntó al chatbot dónde lo encontró.
"¿Cuál es su fuente?", escribió, según el expediente. “Me disculpo por la confusión anterior”, respondió ChatGPT, ofreciendo una citación legal.
“¿Son falsos los otros casos que proporcionó?”, preguntó Schwartz.
ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".
Los casos no pudieron ser encontrados por los abogados de Mata, los abogados de la aerolínea ni por el juez.
El juez Castel ha convocado una audiencia para permitir que Schwartz argumente por qué no debería ser sancionado por proporcionar información engañosa al tribunal.