Incidentes Asociados
Durante el primer trimestre de este año, el Tribunal Supremo recibió un documento procesal que contenía las llamadas alucinaciones, es decir, información fabricada. Esto es lo que la jueza de la Corte Suprema Toril Marie Øie le dice a Advokatbladet.
El documento procesal, que se presentó en relación con una apelación sobre una cuestión procesal en un caso civil, contenía tanto leyes como documentos preparatorios que simplemente no existen, dice Øie.
Que se trataba de fuentes inventadas se descubrió internamente cuando se revisó la apelación en la Corte Suprema.
Los investigadores que preparan los casos que se escucharán en la Corte Suprema revisan rutinariamente las fuentes jurídicas centrales a las que se hace referencia en los alegatos de las partes.
-- Los alegatos hacían referencia a diversas fuentes jurídicas y reproducían citas de las fuentes. Cuando nuestro investigador intentó encontrar estas fuentes, resultó que no existían. En este caso, el abogado simplemente no había verificado las fuentes del KI antes de presentar la demanda, afirma Øie.
-- Sorprendido
No es la primera vez que la inteligencia artificial alucina. Ya han aparecido fuentes jurídicas ficticias ante los tribunales de Estados Unidos. A finales de marzo, también se reveló que un informe sobre la estructura escolar en Tromsø contenía fuentes ficticias.
Ésta es la primera vez que la cuestión de las alucinaciones llega a primer plano ante el Tribunal Supremo de Noruega.
Øie dice que quedó sorprendida por el incidente:
"Me sorprendió que pareciera que no había control sobre las fuentes", afirma.
Pueden aplicarse sanciones
-
¿Qué consecuencias ha tenido el incidente para el abogado responsable?
-
Cuando se descubrió el asunto, lo planteamos al abogado correspondiente. La Corte Suprema tiene la autoridad de imponer una multa procesal o llevar casos ante el Colegio de Abogados. Estas medidas no se han aplicado en este caso, pero no puedo descartar que se produzcan otros casos en el futuro, afirma Øie.
Dice que la Corte Suprema actualmente está preocupada en enfatizar la responsabilidad que tienen los abogados.
--Los abogados son diferentes y tienen diferentes aparatos a su alrededor. No todo el mundo trabaja en grandes empresas con un gran sistema de apoyo y mucha orientación interna. Por eso, para nosotros lo importante ahora es ofrecer buena información y dejar muy claro a los abogados cuáles son nuestras expectativas, afirma Øie.
- Si las demandas relacionadas con alucinaciones se convierten en un problema en el futuro, debemos considerar utilizar las opciones de sanción que tenemos. Ahora tengo la expectativa de los abogados de que esto no será un problema en el futuro, continúa.
La inteligencia artificial no exime de responsabilidad
Øie cree que la inteligencia artificial puede ser una herramienta adecuada, pero al mismo tiempo nos recuerda la responsabilidad que tienen los abogados si deciden utilizarla.
--La Corte Suprema es consciente de que la inteligencia artificial ha llegado para quedarse y que puede ser una herramienta útil para los abogados. Al mismo tiempo, los abogados deben ser conscientes de sus responsabilidades. Los abogados tienen la misma responsabilidad en el esclarecimiento del caso, tanto fáctico como jurídico, independientemente de que utilicen inteligencia artificial o no.
Señala que el conocimiento sobre las alucinaciones es bien conocido y que esta cuestión es algo que los abogados deben tener en cuenta.
- Tenemos la clara expectativa de que la IA solo se utilice en áreas donde usted mismo tenga suficiente experiencia para comprobar que el contenido sea correcto. El abogado debe, como es habitual, asegurarse de que las fuentes clave se presenten correctamente, tanto en lo que respecta a su existencia real como a que el contenido reproducido sea correcto.
Cambia la guía del abogado
El jueves la Corte Suprema publicará una versión actualizada de la guía del abogado con un nuevo punto sobre el uso de herramientas de IA.
La guía tiene como objetivo preparar a los abogados para los procedimientos de apelación ante la Corte Suprema.
--Queremos transmitir qué expectativas tenemos para los abogados que utilizarán IA en el futuro. La Guía del Abogado es nuestro canal más importante para comunicarnos con los abogados. Sabemos que esto es muy utilizado por los abogados que comparecen ante la Corte Suprema, así como ante los tribunales inferiores. Es por eso que estamos actualizando esto ahora.
El nuevo punto establece, entre otras cosas, que "se sabe que la IA puede alucinar e inventar, entre otras cosas, fuentes jurídicas". Las fuentes y demás información proporcionada por KI deben tener garantía de calidad. “La IA sólo debería utilizarse en áreas donde el abogado tenga suficiente experiencia para controlar el contenido”.
- No debería ser una sorpresa
El presidente del Colegio de Abogados de Noruega, Siri Teigum, no se muestra sorprendido por el problema.
-Se esperaba que en algún momento algo así ocurriera también en Noruega, pero me sorprende mucho que esté sucediendo en un documento procesal ante el Tribunal Supremo. Es realmente desafortunado, dice ella.
Teigum está seguro de que la Corte Suprema ha actualizado la guía legal sobre este punto, pero enfatiza que el contenido no debería sorprender a los abogados.
- Los mismos requisitos de calidad y ética se aplican independientemente de que los abogados utilicen inteligencia artificial o no. Creo que es positivo que la Corte Suprema mencione esto en su guía, pero esto es algo que un abogado debe entender incluso sin tal aclaración.
Teigum dice que el Colegio de Abogados de Noruega está trabajando para garantizar que esto no vuelva a suceder.
- El Colegio de Abogados de Noruega quiere contribuir a garantizar que esto no vuelva a suceder. Realizamos periódicamente cursos sobre IA y el Comité de Ética Jurídica del Colegio de Abogados de Noruega está preparando actualmente una guía sobre el uso de la inteligencia artificial.