Incidentes Asociados
Los modelos de inteligencia artificial (IA) generativa frecuentemente producen información legal falsa, y las llamadas "alucinaciones" ocurren entre el 69 y el 88 por ciento de las veces, según un [estudio reciente](https://hai.stanford.edu/news /los-errores-legales-de-ley-alucinantes-los-modelos-de-lenguaje-grande-son-ubicuos).
Se sabía que los modelos de lenguaje grande (LLM, por sus siglas en inglés), modelos de IA generativa, como ChatGPT, que están entrenados para comprender y producir contenido en lenguaje humano, "alucinan" y generan información falsa.
Sin embargo, la naturaleza "generalizada" de las alucinaciones legales plantea "preocupaciones significativas" sobre la confiabilidad del uso de LLM en el campo, señalaron los autores del Instituto de IA centrada en el ser humano y el Laboratorio de Regulación, Evaluación y Gobernanza de la Universidad de Stanford en una publicación de blog.
Cuando se le hicieron preguntas directas y verificables sobre casos judiciales federales, el estudio encontró que el modelo detrás de ChatGPT, GPT-3.5, alucinaba el 69 por ciento de las veces, mientras que PaLM 2 de Google daba respuestas incorrectas el 72 por ciento de las veces y Llama 2 de Meta ofrecía información falsa 88. por ciento del tiempo.
Los modelos obtuvieron peores resultados cuando se les plantearon cuestiones jurídicas más complejas, como la cuestión jurídica central o la celebración central de un caso, o cuando se les preguntó sobre la jurisprudencia de los tribunales inferiores, como los tribunales de distrito.
El estudio encontró que con frecuencia tampoco contradecían premisas falsas en consultas legales y tendían a exagerar su confianza en sus respuestas.
"Hoy en día, hay mucho entusiasmo en el sentido de que los LLM democratizarán el acceso a la justicia al proporcionar una manera fácil y de bajo costo para que el público obtenga asesoramiento legal", escribieron los autores en la publicación del blog publicada el jueves. "Pero nuestros hallazgos sugieren que las limitaciones actuales de los LLM plantean el riesgo de profundizar aún más las desigualdades legales existentes, en lugar de aliviarlas".
"Idealmente, los LLM se destacarían en proporcionar información legal localizada, corregir eficazmente a los usuarios en consultas equivocadas y calificar sus respuestas con niveles apropiados de confianza", agregaron. "Sin embargo, descubrimos que estas capacidades faltan notoriamente en los modelos actuales".
Las consecuencias de este tipo de alucinaciones ya se han visto en el ámbito jurídico. Un juez federal sancionó a dos abogados en junio después de que uno de ellos utilizara citaciones de casos falsas generadas por ChatGPT.
Michael Cohen, ex-reparador y abogado personal del ex presidente Trump, también admitió el mes pasado haberle dado a su abogado [citas de casos falsos](https://thehill .com/regulation/court-battles/4381736-michael-cohen-gave-lawyer-fraudulent-case-citations-generated-by-ai/) después de usar Google Bard, que se ejecutaba en PaLM 2 hasta hace poco.
En su informe anual de fin de año, el presidente del Tribunal Supremo John Roberts advirtió sobre los [posibles inconvenientes](https://thehill.com/regulation/court- battles/4383324-chief-justice-centers-supreme-court-annual-report-on-ais-dangers/) del uso de IA en el campo legal, incluso cuando sugirió que la tecnología podría afectar significativamente el trabajo judicial en el futuro.
"Cualquier uso de la IA requiere precaución y humildad", señaló. "Una de las aplicaciones destacadas de AI apareció en los titulares este año por una deficiencia conocida como 'alucinación', que provocó que los abogados que utilizaban la aplicación presentaran escritos con citaciones de casos inexistentes (siempre es una mala idea)".