Incidentes Asociados

Un abogado de una respetada firma de Tribeca admitió citar varias demandas "falsas" que, según él, reforzaron su caso, porque usó un chatbot de inteligencia artificial para ayudar a escribir la presentación de la corte federal de Manhattan.
La impactante admisión de Steven Schwartz, un abogado de la firma Levidow, Levidow & Oberman, se produjo después de que [le preguntó a ChatGPT](https://nypost.com/2023/05/14/can-chatgpt-help-you-land-your -next-dream-job/) para encontrar casos relevantes para la demanda de su cliente, solo para que el bot los fabrique por completo, según muestran los documentos judiciales.
El problema comenzó después de que el socio legal de Schwartz, Paul LoDuca, presentara una demanda contra la aerolínea colombiana Avianca en nombre de Robert Mata, quien supuestamente resultó herido cuando un carrito de servicio de metal golpeó su rodilla en un vuelo a la ciudad de Nueva York.
Cuando los abogados de la aerolínea le pidieron al tribunal que desestimara la demanda, Schwartz presentó un escrito que supuestamente citaba más de media docena de casos relevantes.
Solo había un problema: los casos, como Miller v. United Airlines, Petersen v. Iran Air y Varghese v. China Southern Airlines, fueron completamente inventados [por ChatGPT] (https://nypost.com/2023/05 /30/nvidia-hits-1t-in-market-value-on-booming-chatgpt-ai-demand/).
“Al tribunal se le presenta una circunstancia sin precedentes”, escribió el juez federal de Manhattan P. Kevin Castel en un [documento del 4 de mayo](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts .nysd.575368.31.0.pdf), informado por primera vez por The New York Times el sábado , pidiendo a Schwartz y LoDucan que se presenten a una audiencia el 8 de junio para enfrentar posibles sanciones por la sorprendente presentación.
“Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”, escribió Castel.
En una declaración jurada presentada la semana pasada, Schwartz admitió que usó ChatGPT mientras compilando el papeleo que presentó Loduca, escribiendo que “se basó en las opiniones legales que le proporcionó una fuente que se ha revelado como poco confiable”.
El mea culpa firmado continuó diciendo que Schwartz "no estaba al tanto de la posibilidad de que su contenido de [ChatGPT] pudiera ser falso".
El abogado caído en desgracia también le dijo al juez que "lamenta mucho" el uso de IA para la "investigación" legal y "nunca lo hará en el futuro sin una verificación absoluta de su autenticidad".
Peter Loduca escribió la semana pasada en [una declaración jurada] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.0.pdf) que no estuvo involucrado en la malversación y “no tenía motivos para dudar de la autenticidad de la jurisprudencia” fabricada en el documento.
Loduca agregó que había trabajado con Schwartz durante 25 años y nunca lo recordó buscando “engañar” a un tribunal.