Incidentes Asociados

Un abogado de Nueva York se ha visto envuelto en problemas en una demanda entre un hombre y la aerolínea Avianca Holding S.A. tras presentar citaciones inexistentes en el caso generado por ChatGPT.
El caso involucró a un hombre llamado Roberto Mata que demandó a Avianca, alegando que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo. Los reclamos por lesiones generalmente no son interesantes, aparte de las consideraciones culturales más amplias sobre cómo EE. UU. [es tan litigioso] (https://statmodeling.stat.columbia.edu/2015/12/03/why-us-litigious/), pero el El caso tomó un giro interesante después de que la aerolínea intentara desestimar el caso.
The New York Times informó el sábado que, en respuesta a la presentación, los abogados que representan a Mata presentaron un 10 Informe de una página que cita más de media docena de casos judiciales relevantes, argumentando que los casos muestran el "efecto de suspensión automática de un estatuto de limitaciones".
Sin embargo, un gran problema es que ninguno de los casos era genuino. El abogado que creó el escrito, Steven A. Schwartz de la firma Levidow, Levidow & Oberman, había usado ChatGPT de OpenAI LP para escribirlo.
Schwartz, de quien se dice que ejerció la abogacía durante tres décadas, se defendió alegando que no estaba al tanto del potencial de la IA para generar contenido falso. Schwartz le dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal ni a la aerolínea y prometió no volver a usar ChatGPT sin una verificación exhaustiva. La situación inusual llevó al juez a convocar una audiencia sobre posibles sanciones contra Schwartz, describiendo el incidente como una “circunstancia sin precedentes” llena de “decisiones judiciales falsas”.
El incidente ha provocado discusiones entre la comunidad legal sobre los valores y riesgos de la IA. Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, le dijo al Times que el caso destaca que los profesionales legales no pueden simplemente tomar el resultado de una IA e incorporarlo a los documentos judiciales. “La discusión ahora entre la barra es cómo evitar exactamente lo que describe este caso”, agregó Gillers.
El caso crea un precedente debido al papel que desempeña la IA en la investigación legal y la construcción de argumentos, lo que ha generado serias preocupaciones sobre la confiabilidad de las herramientas de IA en la profesión legal. El caso también subraya los peligros potenciales de confiar en los resultados de la IA no solo en las presentaciones judiciales, sino también en el uso general sin una verificación secundaria.
Foto: Pixabay
“TheCUBE es un socio importante para la industria. Ustedes realmente son parte de nuestros eventos y realmente apreciamos que hayan venido y sé que la gente también aprecia el contenido que crean” – Andy Jassy
GRACIAS