Incidentes Asociados

Un abogado de Nueva York se vio obligado a admitir que usó la [herramienta de inteligencia artificial ChatGPT](https://www.telegraph.co.uk/business/2023/05/23/chatgpt-sam-altman-ai-regulation-risk -miedos/) para llevar a cabo una investigación legal después de que hiciera referencia a varios casos judiciales inventados.
Steven Schwartz, quien trabaja para Levidow, Levidow y Oberman, está en un equipo que representa al pasajero de la aerolínea Roberto Mata, quien está demandando a la firma Avianca por las lesiones sufridas cuando un carrito de servicio golpeó su rodilla durante un vuelo de El Salvador al aeropuerto JFK de Nueva York en 2019.
Schwartz usó el programa de IA para "complementar" su investigación para una presentación de 10 páginas al tribunal federal de Manhattan que explica por qué no se debe desestimar el caso de su cliente.
El escrito legal, presentado en marzo, citó seis casos anteriores que datan de 1999 a 2019 para reforzar su argumento de por qué el caso debe ser escuchado a pesar de que el plazo de prescripción ha expirado.
No se pudieron encontrar citas
Pero ni los abogados de la aerolínea ni el juez pudieron encontrar las decisiones o citas resumidas en el escrito.
El juez P Kevin Castel ordenó a los abogados del Sr. Mata que proporcionaran copias de las opiniones a las que se hace referencia.
Los abogados presentaron una lista del tribunal y los jueces que los emitieron, pero estos estaban relacionados con casos diferentes.
Para uno de los casos, Varghese v. China Southern Airlines, los abogados de Avianca dijeron que “no habían podido localizar este caso por título o cita, ni ningún caso que se pareciera a él”.
Al ordenar una audiencia para el 8 de junio para discutir posibles sanciones, el juez Castel dijo que un secretario había confirmado que el número de expediente en la opinión estaba relacionado con un caso separado.
‘Decisiones judiciales falsas’
El juez Castel dijo en una orden que se le había presentado "una circunstancia sin precedentes" de recibir "decisiones judiciales falsas, con citas falsas y citaciones internas falsas".
Desarrollado por científicos de Silicon Valley en OpenAI, ChatGPT está diseñado para imitar la conversación y el lenguaje humanos mientras se basa en una gran cantidad de conocimientos para responder preguntas y resolver problemas.
Schwartz dijo en una declaración jurada presentada el jueves que había consultado a ChatGPT “para complementar” su propio trabajo.
En las capturas de pantalla proporcionadas con la presentación, se vio al abogado preguntando al programa AI si los casos citados eran "falsos".
Preguntó si una de las opiniones a las que se hace referencia era “un caso real”. El chatbot respondió confirmando que sí y proporcionó una cita.
'¿Los otros casos son falsos?'
En otra captura de pantalla, le preguntó al programa: "¿Son falsos los otros casos que proporcionó?"
ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".
Schwartz dijo que había usado la herramienta de inteligencia artificial para hacer su investigación, que describió como "una fuente que se ha revelado como poco confiable".
El abogado dijo que nunca antes había usado ChatGPT para su investigación y "por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso".
Le dijo al juez Castel que “lamenta mucho” sus acciones. Schwartz dijo que no tenía intención de engañar al tribunal ni a la aerolínea y que no usará la herramienta en el “futuro sin una verificación absoluta de su autenticidad”.
Se contactó a Schwartz para hacer comentarios el sábado.