Incidentes Asociados
Un abogado que confió en ChatGPT para preparar una presentación judicial en nombre de un hombre que demandó a una aerolínea ahora está muy familiarizado con las deficiencias de la herramienta de inteligencia artificial, incluida su propensión a inventar hechos.
Roberto Mata demandó a la aerolínea colombiana Avianca el año pasado, alegando que un carrito de comida y bebida de metal le lesionó la rodilla en un vuelo al Aeropuerto Internacional Kennedy en Nueva York. Cuando Avianca le pidió a un juez de Manhattan que desestimara la demanda con base en el estatuto de limitaciones, el abogado de Mata, Steven A. Schwartz, presentó un escrito basado en la investigación realizada por ChatGPT, Schwartz, del bufete de abogados Levidow, Levidow & Oberman, dijo en un declaración jurada.
Si bien ChatGPT puede ser útil para profesionales en numerosas industrias, incluida la profesión legal, ha demostrado ser limitado y poco confiable. En este caso, la IA inventó casos judiciales que no existían y afirmó que eran reales.
Las fabricaciones se revelaron cuando los abogados de Avianca se acercaron al juez del caso, Kevin Castel, del Distrito Sur de Nueva York, diciendo que no podían localizar los casos citados en el escrito de los abogados de Mata en las bases de datos legales.
Las decisiones inventadas incluyeron casos titulados Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines.
"Parecía claro cuando no reconocimos ninguno de los casos en su escrito de oposición que algo andaba mal", dijo a CBS MoneyWatch el abogado de Avianca, Bart Banino, de Condon & Forsyth. "Pensamos que era una especie de chatbot de algún tipo".
Schwartz respondió en una declaración jurada la semana pasada, diciendo que había "consultado" a ChatGPT para "complementar" su investigación legal, y que la herramienta de inteligencia artificial era "una fuente que se reveló poco confiable". Agregó que era la primera vez que usaba ChatGPT para el trabajo y "por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso".
Dijo que incluso presionó a la IA para que confirmara que los casos que citaba eran reales. ChatGPT lo confirmó. Schwartz luego le preguntó a la IA cuál era su fuente.
¿La respuesta de ChatGPT? "Me disculpo por la confusión anterior", dijo. La IA luego dijo que el caso Varghese podría estar ubicado en las bases de datos Westlaw y LexisNexis.
El juez Castel fijó una audiencia sobre el problema legal para el 8 de junio y ordenó a Schwartz y al bufete de abogados Levidow, Levidow & Oberman que argumenten por qué no deberían ser sancionados.
Levidow, Levidow & Oberman no pudieron ser contactados de inmediato para hacer comentarios.