Incidentes Asociados
Los programas informáticos que realizan evaluaciones de riesgo de los sospechosos de delitos son cada vez más comunes en los tribunales estadounidenses y se utilizan en todas las etapas de los sistemas de justicia penal para determinar quién puede ser puesto en libertad o libertad condicional, y el monto de la fianza que deben pagar. Para 2016, los resultados de estas evaluaciones se entregaron a los jueces durante la sentencia penal y se propuso en el Congreso un proyecto de ley de reforma de sentencias para ordenar el uso de dichas evaluaciones en las prisiones federales. En un estudio de las puntuaciones de riesgo asignadas a más de 7000 personas en el condado de Broward en Florida en 2013 y 2014, ProPublica descubrió que solo el 20 % de las personas que el sistema predijo que cometerían delitos violentos lo habían hecho. Para la gama completa de delitos, incluidos los delitos menores, el 61 % de los que se predijo que reincidirían fueron arrestados por delitos posteriores durante los dos años siguientes.
ProPublic también encontró disparidades raciales significativas. Aunque el algoritmo cometió errores aproximadamente a la misma tasa para los acusados blancos y negros, etiquetó incorrectamente a los acusados negros como propensos a cometer más delitos al doble de las tasas que los acusados blancos. Por el contrario, los acusados blancos fueron mal etiquetados como de bajo riesgo con más frecuencia que los acusados negros. Northpointe, la empresa que produjo el sistema, conocida como COMPAS, cuestionó el análisis de ProPublic pero se negó a compartir sus cálculos, que según la empresa eran de su propiedad. Sin embargo, reveló que los conceptos básicos de su fórmula incluían factores como los niveles de educación y la situación laboral entre las 137 preguntas que los acusados respondían o que se extraían de los antecedentes penales. Estas herramientas se implementaron en muchas áreas antes de que se evaluaran rigurosamente, y los acusados rara vez pueden averiguar la base de los puntajes que se les asignan.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Guión: Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner
Publicación: ProPublica