Incidentes Asociados
BANGKOK, 12 de abril (Fundación Thomson Reuters) - Pocos casos preocupan a Hamid Ismail después de casi dos décadas como abogado, pero se sorprendió cuando un hombre al que defendió fue sentenciado con la ayuda de una herramienta de inteligencia artificial en el estado malasio de Sabah.
Ismail sabía que los tribunales de Sabah y la vecina Sarawak estaban probando la herramienta de IA para recomendaciones de sentencia como parte de un programa piloto a nivel nacional, pero le inquietaba que la tecnología se estuviera utilizando antes de que los abogados, los jueces y el público la entendieran por completo.
No hubo una consulta adecuada sobre el uso de la tecnología y no está contemplado en el código penal del país, dijo.
"Nuestro Código de Procedimiento Penal no prevé el uso de IA en los tribunales... Creo que es inconstitucional", dijo Ismail, y agregó que la sentencia recomendada por AI para su cliente por un cargo menor de posesión de drogas era demasiado dura.
Los tribunales de Sabah y Sarawak probaron el software desarrollado por Sarawak Information Systems, una empresa del gobierno estatal, que dijo en ese momento que había realizado consultas durante el proceso y tomó medidas para abordar algunas de las inquietudes planteadas.
En todo el mundo, el uso de IA en el sistema de justicia penal está creciendo rápidamente, desde el popular DoNotPay [abogado de chatbot] (https://nam02.safelinks.protection.outlook.com/?url=https%3A%2F%2Fdonotpay. com%2F&data=04%7C01%7CBeatrice.Tridimas%40thomsonreuters.com%7C402a093d65cd4ecae3bb08da1bc99ff2%7C62ccb8646a1a4b5d8e1c397dec1a8258%7C0%7C0%7C637852850059918402%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000&sdata=8jd9NRml2Qz6iOxCc5OM7dlF4vgbd3BGIB959Ncubak%3D&reserved=0) mobile app to robot judges in Estonia adjudicating small claims , a los mediadores de robots en Canadá y los jueces de IA en los tribunales chinos.
Las autoridades dicen que los sistemas basados en inteligencia artificial hacen que las sentencias sean más consistentes y pueden resolver casos atrasados de manera rápida y económica, lo que ayuda a todas las partes en los procedimientos legales a evitar litigios prolongados, costosos y estresantes.
Más de un tercio de los encuestados gubernamentales en un La encuesta realizada el año pasado por la firma de investigación Gartner indicó que planeaban aumentar las inversiones en sistemas impulsados por IA, incluidos chatbots, reconocimiento facial y extracción de datos en todos los sectores.
Este mes, [autoridades federales de Malasia](https://www.kehakiman.gov.my/sites/default/files/Kenyataan%20Media%20-%20Garis%20Panduan%20Pelaksanaan%20Penghukuman%20Menggunakan%20Teknologi%20Artificial%20Intelligence% 20di%20Mahkamah%20Rendah%20Semenanjung%20Malaysia.pdf) tienen como objetivo concluir su juicio a nivel nacional de las herramientas de sentencia de IA, que han dicho que "pueden mejorar la calidad del juicio", aunque no está del todo claro cómo se utilizarán en los tribunales. .
Un portavoz del presidente del Tribunal Supremo de Malasia dijo que el uso de la IA en los tribunales "todavía estaba en la etapa de prueba", y rechazó hacer más comentarios.
Sesgo, factores atenuantes
Los críticos advierten que la IA corre el riesgo de afianzarse y [amplificar el sesgo] 7CBeatrice.Tridimas%40thomsonreuters.com%7C402a093d65cd4ecae3bb08da1bc99ff2%7C62ccb8646a1a4b5d8e1c397dec1a8258%7C0%7C0%7C637852850059918402%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000&sdata=qqWtx3X9o7V5m1i36iENHa45qBDcURM%2BvLWlQjbURmo%3D&reserved=0) against minorities and marginalised groups, saying the technology lacks a judge's ability to weigh up circunstancias individuales, o adaptarse a las cambiantes costumbres sociales.
"Al dictar sentencia, los jueces no solo analizan los hechos del caso, también consideran los factores atenuantes y usan su discreción. Pero AI no puede usar la discreción", dijo Ismail a la Fundación Thomson Reuters.
Considerar los factores agravantes y atenuantes "requiere una mente humana", dijo Charles Héctor Fernández, un abogado de derechos humanos de Malasia.
"Las sentencias también varían con los tiempos cambiantes y la opinión pública cambiante. Necesitamos más jueces y fiscales para manejar el aumento de casos; AI no puede reemplazar a los jueces humanos", agregó.
Buscando abordar las preocupaciones de que su software de inteligencia artificial podría conducir a un sesgo en la sentencia, Sarawak Information Systems dijo que había eliminado la variable "raza" del algoritmo.
Pero si bien "tales medidas de mitigación son valiosas, no hacen que el sistema sea perfecto", dijo un informe de 2020 sobre la herramienta del Instituto de Investigación Khazanah (KRI), un grupo de expertos en políticas.
También señaló que la compañía solo había utilizado un conjunto de datos de cinco años entre 2014 y 2019 para entrenar el algoritmo, "lo que parece algo limitado en comparación con las extensas bases de datos utilizadas en los esfuerzos globales".
Sarawak Information Systems no pudo ser contactado para comentar si desde entonces había ampliado su base de datos.
Un análisis realizado por KRI de casos en Sabah y Sarawak mostró que los jueces siguieron la recomendación de sentencia de AI en un tercio de los casos, todos los cuales involucraron violación o posesión de drogas según los términos del programa piloto de los dos estados.
Algunos de los jueces redujeron las sentencias sugeridas a la luz de factores atenuantes. Otros se endurecieron sobre la base de que no servirían como un "disuasivo lo suficientemente fuerte".
'Algoritmo opaco'
La tecnología tiene el potencial de mejorar la eficiencia en el sistema de justicia penal, dijo Simon Chesterman, profesor de derecho en la Universidad Nacional de Singapur.
Pero su legitimidad depende no solo de la veracidad de las decisiones que se tomen, sino también de la forma en que se tomen, agregó.
"Muchas decisiones podrían ser entregadas correctamente a las máquinas. (Pero) un juez no debe subcontratar la discreción a un algoritmo opaco", dijo Chesterman, director senior de AI Singapur, un programa gubernamental.
El Colegio de Abogados de Malasia, que representa a los abogados, también ha expresado su preocupación por el piloto de IA.
Cuando los tribunales de Kuala Lumpur, la capital, comenzaron a usarlo a mediados de 2021 para dictar sentencias en 20 tipos de delitos, el consejo dijo que "no se le dieron pautas en absoluto y no tuvimos la oportunidad de recibir comentarios de los profesionales del derecho penal".
En Sabah, Ismail apeló la recomendación de sentencia de su cliente por parte de la herramienta AI, que el juez siguió.
Pero dijo que muchos abogados no montarían un desafío, condenando potencialmente a sus clientes a sentencias demasiado duras.
“La IA actúa como un juez principal”, dijo Ismail.
"Los magistrados jóvenes pueden pensar que es la mejor decisión y aceptarla sin dudarlo".