Incidentes Asociados

[Inquietudes] éticas (https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research "https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research") han sido planteadas por instituciones educativas que temen que los estudiantes puedan usar chatbots impulsados por inteligencia artificial (IA) como ChatGPT para escribir sus trabajos de investigación o ensayos, afectando así la integridad académica de la tarea.
Pero incluso si usaron el chatbot para trabajos relacionados con la investigación, uno supondría que verificarían la veracidad de los resultados producidos por el chatbot. Pero este ni siquiera fue el caso con un abogado certificado por la barra, el Sr. Steven A. Schwartz.
En un giro vergonzoso de los acontecimientos, un abogado con sede en Nueva York se metió en problemas con un tribunal federal de Manhattan después de que usó ChatGPT para realizar una investigación legal para un caso, [informado](https://www.nytimes.com/ 2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html "reportado") The New York Times.
Todo hubiera ido bien para el Sr. Schwartz si las citaciones y decisiones judiciales mencionadas en el informe no hubieran sido producto de la imaginación de ChatGPT.
La demanda había sido presentada por un bufete de abogados con sede en Nueva York, Levidow, Levidow & Oberman, en nombre de su cliente Roberto Mata, que quería demandar a la aerolínea Avianca después de que alegara que resultó herido por un carrito de servicio durante un vuelo.
Después de que Avianca presentó la moción para desestimar el caso, el Sr. Schwartz, quien ha sido abogado en ejercicio durante los últimos 30 años, presentó un escrito de 10 páginas con citas de casos similares en el pasado. Pero ni los abogados de Avianca ni el propio juez pudieron encontrar los casos citados en el diario.
"Al tribunal se le presenta una circunstancia sin precedentes", escribió el juez federal de distrito Kevin Castel en un [aviso de mostrar causa](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd .575368.31.0.pdf). "Una presentación presentada por el abogado del demandante en oposición a una moción para desestimar está repleta de citas de casos inexistentes".
De las citaciones presentadas, "seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", decía además el aviso con fecha del 4 de mayo de 2023.
Hay un nombre para la información 'falsa' proporcionada por ChatGPT
Los desarrolladores lo llaman "alucinación". Es cuando las herramientas generativas de IA como ChatGPT arrojan respuestas falsas a las indicaciones. Estas respuestas no son reales y no coinciden con los datos con los que se ha entrenado. Una herramienta de IA 'alucinante' podría, por ejemplo, crear noticias falsas o dar una lista de demandas que no existen.
El Sr. Schwartz respondió a la notificación del tribunal el 25 de mayo, aceptando y disculpándose por usar el chatbot de OpenAI para su investigación. Dijo en su respuesta: "Que su declarante (Schwartz) lamenta enormemente haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en este documento y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad".
Curiosamente, Schwartz no representaba directamente al cliente. De hecho, fue otro abogado de Levidow, Levidow & Oberman, Peter LoDuca, quien le pidió a Schwartz que lo ayudara con el escrito de citación. Schwartz agregó en su respuesta: "Que Peter LoDuca, Esq. no tuvo ningún papel en la realización de la investigación en cuestión, ni tenía conocimiento de cómo se llevó a cabo dicha investigación.
También adjuntó capturas de pantalla de sus consultas y respuestas proporcionadas por ChatGPT como prueba de que "no tenía la intención de engañar a este Tribunal ni al acusado".
El tribunal convocó a una audiencia el 8 de junio para discutir las sanciones contra el Sr. LoDuca.