Incidentes Asociados
Una herramienta de software de computadora ampliamente utilizada puede no ser más precisa o justa para predecir el comportamiento delictivo repetido que las personas sin experiencia en justicia penal, según un estudio de Dartmouth College.
El análisis de Dartmouth mostró que los no expertos que respondieron a una encuesta en línea se desempeñaron igualmente bien con el sistema de software de gestión de delincuentes correccionales para sanciones alternativas (COMPAS) utilizado por los tribunales para ayudar a determinar el riesgo de reincidencia.
El documento también demuestra que aunque COMPAS usa más de cien piezas de información para hacer una predicción, se puede lograr el mismo nivel de precisión con solo dos variables: la edad del acusado y el número de condenas anteriores.
Según el trabajo de investigación, COMPAS se ha utilizado para evaluar a más de un millón de delincuentes desde que se desarrolló en 1998, con su componente de predicción de reincidencia en uso desde 2000.
El análisis, publicado en la revista Science Advances, fue realizado por el equipo de investigación de estudiantes y profesores de Julia Dressel y Hany Farid.
"Es preocupante que los trabajadores de Internet no capacitados puedan funcionar tan bien como un programa de computadora utilizado para tomar decisiones que alteran la vida de los acusados criminales", dijo Farid, profesor de informática Albert Bradley 1915 Third Century en Dartmouth College. "El uso de dicho software puede no estar haciendo nada para ayudar a las personas a las que los algoritmos de caja negra podrían negarles una segunda oportunidad".
Según el documento, las herramientas de software se utilizan en las decisiones previas al juicio, la libertad condicional y la sentencia para predecir el comportamiento delictivo, incluido quién es probable que no se presente en una audiencia judicial y quién es probable que reincida en algún momento en el futuro. Los partidarios de tales sistemas argumentan que los grandes datos y el aprendizaje automático avanzado hacen que estos análisis sean más precisos y menos sesgados que las predicciones hechas por humanos.
"Las afirmaciones de que las herramientas de datos secretas y aparentemente sofisticadas son más precisas y justas que los humanos simplemente no están respaldadas por los hallazgos de nuestra investigación", dijo Dressel, quien realizó la investigación como parte de su tesis de licenciatura en informática en Dartmouth.
El trabajo de investigación compara el software comercial COMPAS con los trabajadores contratados a través del mercado de colaboración colectiva en línea Mechanical Turk de Amazon para ver qué enfoque es más preciso y justo al juzgar la posibilidad de reincidencia. A los efectos del estudio, la reincidencia se definió como la comisión de un delito menor o mayor dentro de los dos años posteriores al último arresto del acusado.
Grupos de trabajadores de Internet vieron breves descripciones que incluían el sexo, la edad y los antecedentes penales del acusado. Luego, los resultados humanos se compararon con los resultados del sistema COMPAS que utiliza 137 variables para cada individuo.
La precisión general se basó en la tasa a la que se predijo correctamente que un acusado reincidiría o no. La investigación también informó sobre falsos positivos, cuando se predice que un acusado reincidirá, pero no lo hace, y falsos negativos, cuando se predice que un acusado no reincidirá, pero lo hace.
Con mucha menos información que COMPAS (siete funciones en comparación con 137), cuando los resultados se agruparon para determinar la "sabiduría de la multitud", los humanos sin presunta experiencia en justicia penal fueron precisos en el 67 por ciento de los casos presentados, estadísticamente lo mismo. como el 65,2 por ciento de precisión de COMPAS. Los participantes del estudio y COMPAS estuvieron de acuerdo en el 69,2 por ciento de los 1000 acusados al predecir quién repetiría sus delitos.
Según el estudio, la cuestión de la predicción precisa de la reincidencia no se limita a COMPAS. Una revisión separada citada en el estudio encontró que ocho de los nueve programas de software fallaron en hacer predicciones precisas.
"Debe cuestionarse todo el uso de instrumentos de predicción de reincidencia en los tribunales", dijo Dressel. "Junto con el trabajo previo sobre la imparcialidad de los algoritmos de justicia penal, estos resultados combinados arrojan dudas significativas sobre todo el esfuerzo de predecir la reincidencia".
A diferencia de otros análisis que se centran en si los algoritmos tienen sesgos raciales, el estudio de Dartmouth considera la cuestión más fundamental de si el algoritmo COMPAS es mejor que los humanos no capacitados para predecir la reincidencia de manera precisa y justa.
Sin embargo, cuando se consideró la raza, la investigación encontró que los resultados tanto de los encuestados humanos como del software mostraron disparidades significativas entre cómo se juzga a los acusados blancos y negros.
Según el periódico, es valioso preguntarse si dejaríamos estas decisiones en manos de personas no capacitadas que respondan una encuesta en línea porque, al final, "los resultados de estos dos enfoques parecen ser indistinguibles".