Incidentes Asociados

Un abogado que confió en ChatGPT para preparar un expediente judicial para su cliente está descubriendo por las malas que la herramienta de inteligencia artificial tiende a fabricar información.
Steven Schwartz, abogado de un hombre que demandó a la aerolínea colombiana Avianca por un carrito de bebidas de metal que supuestamente le lastimó la rodilla, enfrenta una audiencia de sanciones el [8 de junio] (https://www.cnn.com/2023/05/27/ business/chat-gpt-avianca-mata-lawyers/index.html) después de admitir la semana pasada que varios de los casos que entregó al tribunal como evidencia de precedente fueron inventados por ChatGPT, un gran modelo de lenguaje creado por OpenAI.
Los abogados de Avianca primero llevaron las preocupaciones al juez que supervisa el caso.
“Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas”, [dijo] el juez federal de distrito P. Kevin Castel (https://storage.courtlistener.com/recap/gov.uscourts.nysd. 575368/gov.uscourts.nysd.575368.32.0.pdf) a principios de este mes después de revisar la denuncia de Avianca, calificando la situación como una “circunstancia sin precedentes”.
Los casos inventados incluían decisiones tituladas “Varghese v. China Southern Airlines Ltd.”, “Miller v. United Airlines Inc.” y “Petersen v. Iran Air”.
Schwartz, un abogado de Levidow, Levidow & Oberman con licencia en Nueva York durante más de 30 años, confesó en una declaración jurada que había usado ChatGPT para presentar los casos en apoyo de su cliente y que "no estaba al tanto de la posibilidad de que su contenido podría ser falso”.
Schwartz “lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”, [afirmó] (https://storage.courtlistener.com/recap/ gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1_1.pdf) en la declaración jurada.
Peter LoDuca, otro abogado de la firma de Schwartz, argumentó en una declaración jurada por separado que “las sanciones no son apropiadas en este caso ya que no hubo mala fe ni intención de engañar ni al Tribunal ni al acusado”.
Las sanciones pueden implicar que Schwartz pague los honorarios de los abogados en los que incurrió la otra parte al descubrir la información falsa.
Esta no es la primera vez ChatGPT tiene información "alucinada", como los investigadores de IA se refieren al fenómeno. El mes pasado, The Washington Post informó en ChatGPT que puso a un profesor en una lista de académicos legales que habían acosado sexualmente a alguien, citando un artículo del Post que no existía.
“Fue bastante escalofriante”, dijo el profesor de derecho, Jonathan Turley, en una entrevista con el Post. “Una acusación de este tipo es increíblemente dañina”.