Incidentes Asociados
Parece que ChatGPT es propenso a cometer los mismos errores que cometen los humanos cuando investigan la ley.
Un abogado de lesiones personales en Nueva York enfrenta posibles sanciones luego de que usó ChatGPT para encontrar casos legales que ayudarían a su cliente en una demanda contra la aerolínea Avianca.
El único problema es que los casos citados por ChatGPT no existen.
Steven A. Schwartz, un abogado del bufete de abogados Levidow, Levidow & Oberman que ha estado practicando desde 1991, según Law & Crime, dijo que "se basó en las opiniones legales que le proporcionó una fuente que se ha revelado ser poco fiable".
En una carta al tribunal, Schwartz continuó diciendo que nunca antes había usado ChatGPT para un caso, por lo que "desconocía la posibilidad de que su contenido pudiera ser falso".
Schwartz y su bufete de abogados representan a Roberto Mata, un hombre que está demandando a Avianca luego de que un carrito de servicio de metal lo lastimó y chocó con su rodilla durante un vuelo.
Avianca solicitó la desestimación de la demanda alegando que el plazo de prescripción del caso había expirado. Sin embargo, los abogados de Mata se opusieron a la moción y citaron varios casos en apoyo de su posición legal.
Luego de que los abogados de Avianca revisaran los casos, encontraron que seis de ellos no existían.
"El demandado afirma respetuosamente que la autenticidad de muchos de estos casos es cuestionable", [afirmaron los abogados] de Avianca (https://www.documentcloud.org/documents/23828918-letter-to-castel?responsive=1&title=1).
Un par de los casos que se presentaron existieron, pero "abordan cuestiones totalmente ajenas a los principios por los que el Demandante los citó en oposición a la moción de los Demandados".
Schwartz, su co-abogado y su bufete de abogados ahora deben comparecer ante la corte el 8 de junio para enfrentar posibles sanciones por el error.
Schwartz publicó una captura de pantalla de su conversación con ChatGPT en su carta a la corte.
Cuando se le preguntó por su fuente para citar uno de los casos inexistentes, el chatbot respondió:
"Me disculpo por la confusión anterior. Al verificar dos veces, descubrí que el caso... de hecho existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis [esto es una mentira ya que los casos no son reales]. Pido disculpas por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado".
Cuando se le preguntó si los otros casos que proporcionó el bot eran falsos, respondió:
"No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas..."