Incidentes Asociados

Un abogado de lesiones personales que representa a un hombre que demandó a una aerolínea ahora enfrenta sanciones por citar casos falsos generados por ChatGPT en documentos judiciales.
Roberto Mata demandó a la aerolínea Avianca luego de que un carrito de servicio de metal lo lesionó en la rodilla durante un vuelo. Como es un procedimiento típico en muchos casos de lesiones personales, Avianca se movió para desestimar el reclamo sobre la base de que el estatuto de limitaciones aplicable había expirado. Los abogados de Mata se opusieron a la moción de desestimación y en los documentos judiciales adjuntos citaron varios casos que respaldaban la posición legal de su cliente: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines, y Miller v. United Airlines.
Sin embargo, de manera problemática, los abogados de Avianca no pudieron encontrar los casos citados en la moción en ninguna parte, incluso después de una extensa investigación legal. Plantearon el problema en una carta al juez federal de distrito Kevin Castel, designado por George W. Bush. En la carta, los abogados de la aerolínea dijeron: “El acusado respetuosamente afirma que la autenticidad de muchos de estos casos es cuestionable”, e indicaron que a pesar de realizar una investigación legal estándar, no se pudo encontrar ninguna señal de los casos citados.
El origen de los misteriosos "casos" se reveló cuando Steven A. Schwartz, del bufete de abogados de Nueva York Levidow, Levidow & Oberman, presentó una [declaración jurada](https://www.documentcloud.org/documents/23828916-schwartz-affidavit?responsive =1&title=1) al tribunal explicando que había utilizado el programa de inteligencia artificial ChatGPT para “complementar la investigación legal” mientras redactaba los documentos. Schwartz le dijo al juez que el programa ahora “se ha revelado como poco confiable”.
Schwartz, quien ha sido abogado desde 1991, dijo que "consultó con" el chatbot para el trabajo legal, pero que debido a que era la primera vez que usaba el programa, “desconocía la posibilidad de que su contenido pudiera ser falso”. De hecho, ChatGPT proporcionó nombres de casos, subtítulos, resúmenes y citas en un formato estándar.
Schwartz aceptó toda la responsabilidad por el error y dijo que no tenía intención de engañar a la corte. También dijo que “lamenta mucho haber usado inteligencia artificial generativa” y prometió que “nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”. Schwartz también dijo que Peter LoDuca, el abogado designado como asesor legal en el caso, no participó en la redacción del documento que contenía fuentes falsas.
LoDuca, Schwartz y el bufete de abogados ahora enfrentan posibles consecuencias por el error de Schwartz. Castel les ordenó el viernes comparecer el 8 de junio para enfrentar posibles sanciones conforme a las Reglas Federales de Procedimiento Civil por “la citación de casos inexistentes”. Una respuesta por escrito a la posibilidad de sanciones debe presentarse antes del 2 de junio.
Los representantes de Levidow, Levidow & Oberman no respondieron de inmediato a una solicitud de comentarios.