Incidentes Asociados
MELBOURNE, Australia (AP) --- Un abogado de alto rango en Australia se disculpó con un juez por presentar alegatos en un caso de asesinato que incluían citas falsas y sentencias inexistentes generadas por inteligencia artificial.
El error cometido en la Corte Suprema del estado de Victoria se suma a una larga lista de contratiempos que la IA ha causado en los sistemas judiciales (https://apnews.com/article/artificial-intelligence-ai-courts-nyc-5c97cba3f3757d9ab3c2e5840127f765) en todo el mundo.
El abogado defensor Rishi Nathwani, quien ostenta el prestigioso título legal de Abogado del Rey, asumió la "plena responsabilidad" por presentar información incorrecta en los alegatos en el caso de un adolescente acusado de asesinato, según documentos judiciales vistos por The Associated Press el viernes.
"Lamentamos profundamente y nos sentimos avergonzados por lo ocurrido", declaró Nathwani al juez James Elliott el miércoles, en nombre de la defensa. Los errores generados por IA provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott dictaminó el jueves que el cliente de Nathwani, cuya identidad no se puede identificar por ser menor de edad, no era culpable de asesinato debido a su discapacidad mental.
"A riesgo de quedarme corto, la manera en que se han desarrollado estos hechos es insatisfactoria", declaró Elliott a sus abogados el jueves.
"La capacidad del tribunal para confiar en la exactitud de los alegatos presentados por los abogados es fundamental para la debida administración de justicia", añadió Elliott.
Los alegatos falsos incluían citas inventadas de un discurso ante la legislatura estatal y citas inexistentes de casos, supuestamente de la Corte Suprema.
Los errores fueron descubiertos por los asociados de Elliott, quienes no pudieron encontrar los casos y solicitaron copias a los abogados defensores.
Los abogados admitieron que las citas "no existen" y que el escrito contenía "citas ficticias", según documentos judiciales.
Los abogados explicaron que comprobaron la exactitud de las citas iniciales y asumieron erróneamente que las demás también lo serían.
Los escritos también fueron enviados al fiscal Daniel Porceddu, quien no verificó su exactitud.
El juez señaló que la Corte Suprema publicó el año pasado directrices sobre cómo los abogados utilizan la IA.
"No es aceptable que se utilice inteligencia artificial a menos que el resultado de dicho uso se verifique de forma independiente y exhaustiva", declaró Elliott.
Los documentos judiciales no identifican el sistema de inteligencia artificial generativa utilizado por los abogados.
En un caso similar ocurrido en Estados Unidos en 2023, un juez federal impuso multas de 5000 dólares a dos abogados y un bufete de abogados después de que se acusara a ChatGPT de presentar una investigación jurídica ficticia en una demanda por lesiones en un avión.
El juez P. Kevin Castel declaró que actuaron de mala fe. Pero atribuyó sus disculpas y las medidas correctivas adoptadas a la explicación de por qué no eran necesarias sanciones más severas para garantizar que ellos u otros no volvieran a permitir que las herramientas de inteligencia artificial los impulsaran a producir antecedentes legales falsos en sus argumentos.
Más tarde ese mismo año, se citaron más fallos judiciales ficticios inventados por IA en documentos legales presentados por los abogados de Michael Cohen, exabogado personal del presidente estadounidense Donald Trump. Cohen asumió la responsabilidad, alegando que no se dio cuenta de que la herramienta de Google que utilizaba para su investigación jurídica también era capaz de las llamadas alucinaciones de IA.
En junio, la jueza del Tribunal Superior británico Victoria Sharp advirtió que proporcionar material falso como si fuera genuino podría considerarse desacato al tribunal o, en los "casos más atroces", perversión del curso de la justicia, lo que conlleva una pena máxima de cadena perpetua.