Incidentes Asociados

Varios abogados están bajo escrutinio y enfrentan posibles sanciones después de utilizar el modelo de lenguaje avanzado de OpenAI, ChatGPT, para la redacción de documentos legales presentados en un tribunal federal de Nueva York. La atención que rodea este asunto proviene de la citación errónea de casos inexistentes o irrelevantes por parte de ChatGPT.
La adopción de la IA en la práctica legal no es un concepto novedoso, pero su uso ha experimentado un aumento espectacular en los últimos años. El aprendizaje automático ahora ha demostrado su competencia en el manejo de una variedad de tareas legales, que van desde la intrincada investigación legal hasta la creación automatizada de documentos y el análisis de contratos complejos. Entre estas herramientas de IA, ChatGPT de OpenAI, armado con procesamiento de lenguaje natural de vanguardia, ha demostrado ser notablemente hábil para generar argumentos legales convincentes, pero no es un reemplazo para la experiencia legal y la investigación legal.
En este caso, los abogados emplearon ChatGPT para la creación de secciones de un archivo judicial federal. El texto incluía varias citas de jurisprudencia. Sin embargo, luego de un examen cuidadoso, el tribunal encontró que algunos de los casos citados no existían o no estaban relacionados con el asunto bajo consideración. Estas citas erróneas aparentemente fueron generadas por ChatGPT, lo que llevó a que se etiquetaran como "falsas".
Según CNBC, "Roberto Mata's La demanda contra Avianca Airlines no fue tan diferente de muchas otras demandas por lesiones personales presentadas en la corte federal de Nueva York Mata y su abogado, Peter LoDuca, alegaron que Avianca causó lesiones personales a Mata cuando fue "golpeado por un carrito de servicio de metal" en abordar un vuelo de 2019 con destino a Nueva York.
Avianca solicitó el sobreseimiento del caso. Como era de esperar, los abogados de Mata se opusieron a la moción y citaron una variedad de decisiones legales, como es típico en las disputas judiciales. Entonces todo se vino abajo.
Los abogados de Avianca le dijeron al tribunal que no pudo encontrar numerosos casos legales que LoDuca había citado en su respuesta. El juez federal P. Kevin Castel exigió a LoDuca copias de nueve decisiones judiciales que aparentemente fueron utilizadas.
En respuesta, LoDuca presentó el texto completo de ocho casos en un tribunal federal. Pero el problema solo se profundizó, dijo Castel en una presentación, porque los textos eran ficticios y citaban lo que parecían ser "decisiones judiciales falsas con citas falsas y citas internas falsas".
Es crucial tener en cuenta que ChatGPT, por su propia naturaleza y programación, no posee la capacidad de discernir la relevancia legal o la validez de una jurisprudencia específica. Genera texto basado en los patrones y datos en los que ha sido entrenado. Esto significa que si el conjunto de entrenamiento contenía datos inexactos o inexistentes, ChatGPT puede producir un texto correspondiente. En este caso, parece que AI sugirió jurisprudencia espuria o no relacionada, que los abogados no pudieron cotejar antes de incluirlas en su presentación judicial.
Este paso en falso ha resultado en que los abogados involucrados estén al borde de posibles sanciones. El requisito de precisión y relevancia de las citas de jurisprudencia en la profesión legal es primordial. Cualquier presentación de jurisprudencia irrelevante o falsa socava el argumento legal, desperdicia el tiempo del tribunal y puede desviar el proceso de adjudicación. Acciones de tal naturaleza generalmente se encuentran con sanciones, sirviendo como advertencia a otros abogados.