Incidentes Asociados

Miles de personas están saliendo de la prisión federal este mes gracias a una ley llamada Ley del Primer Paso, que les permitió ganar la libertad anticipada al participar en programas destinados a facilitar su regreso a la sociedad.
Pero miles de personas aún pueden permanecer tras las rejas debido a fallas fundamentales en el método del Departamento de Justicia para decidir quién puede tomar la vía de libertad anticipada. El mayor defecto: las disparidades raciales persistentes que ponen en desventaja a las personas negras y morenas.
En un informe emitido días antes de la Navidad de 2021, el departamento dijo que su herramienta algorítmica para evaluar el riesgo de que una persona en prisión vuelva a delinquir produjo resultados desiguales. El algoritmo, conocido como Patrón, predijo en exceso el riesgo de que muchas personas negras, hispanas y asiáticas cometieran nuevos delitos o violaran las reglas después de salir de prisión. Al mismo tiempo, también subestimó el riesgo de algunos reclusos de color cuando se trataba de un posible regreso a los delitos violentos.
"Desde el principio, los grupos de derechos civiles advirtieron al Congreso y al Departamento de Justicia que el uso de una herramienta de evaluación de riesgos para hacer estas determinaciones conduciría a disparidades raciales", dijo Aamra Ahmad, asesora principal de políticas de la Unión Estadounidense de Libertades Civiles.
"El Departamento de Justicia encontró que solo el 7% de las personas negras en la muestra fueron clasificadas como de nivel mínimo de riesgo en comparación con el 21% de las personas blancas", agregó. "Este indicador por sí solo debería dar al Departamento de Justicia una gran pausa para avanzar".
La regla de las consecuencias no deseadas
Las herramientas de evaluación de riesgos son comunes en muchos estados. Pero los críticos dijeron que Pattern es la primera vez que el sistema de justicia federal usa un algoritmo con tanto en juego.
El Congreso aprobó la Ley del Primer Paso en 2018 con amplias mayorías bipartidistas. Está diseñado para preparar a las personas en prisión para la vida posterior al ofrecer créditos para la liberación anticipada por trabajar o tomar habilidades para la vida y otras clases mientras están tras las rejas.
Legisladores como los senadores Sheldon Whitehouse de Rhode Island y John Cornyn de Texas se inspiraron en reformas similares de la justicia penal en los estados, que dijeron que provocaron caídas tanto en la población carcelaria como en el crimen. Los senadores señalaron que alrededor de 9 de cada 10 personas en prisión eventualmente regresan a sus hogares y sostuvieron que prepararlos para la liberación tenía sentido para las personas que estuvieron en prisión y para la seguridad pública.
Solo los reclusos que presentan un riesgo bajo o mínimo de volver a delinquir pueden calificar para los programas, y ese nivel de riesgo se determina mediante el algoritmo Pattern.
"La importancia de esta herramienta de evaluación de riesgos es que divide a todos los presos federales esencialmente en dos grupos: las personas que pueden obtener crédito por hacer este programa y salir temprano, y las personas que no pueden", dijo Jim Felman, abogado en Tampa. , Fla., que ha seguido la Ley del Primer Paso durante años.
La implementación ha sido difícil. El Departamento de Justicia terminó la primera versión de Pattern a toda prisa debido a un plazo ajustado del Congreso.
Luego tuvo que hacer ajustes después de descubrir que Pattern sufría errores matemáticos y humanos.
Unos 14.000 hombres y mujeres en prisiones federales todavía terminaron en las categorías de riesgo incorrectas. Había grandes disparidades para las personas de color.
"Creo que la legislación vino de un buen lugar", dijo Melissa Hamilton, profesora de derecho y justicia penal en la Universidad de Surrey que estudia evaluaciones de riesgo. "Es solo que la regla de las consecuencias no deseadas es realmente no darse cuenta de los impedimentos que iba a tener".
La herramienta de evaluación de riesgos "suena muy técnica, pero no lo es"
"Usas un término como 'herramienta de evaluación de riesgos', tiene esta pátina de ciencia, suena muy técnico, pero no lo es", dijo Patricia Richman, quien trabaja en temas de política nacional para los Defensores Públicos y Comunitarios Federales. "Una herramienta de evaluación de riesgos es solo una serie de decisiones políticas".
Esas decisiones de política se toman determinando qué cuenta como factor de riesgo y en qué medida.
Los antecedentes penales pueden ser un problema, por ejemplo, porque las fuerzas del orden tienen un historial de vigilancia excesiva en algunas comunidades de color. Otros factores, como el nivel de educación y si alguien pagó restitución a sus víctimas, también pueden cruzarse con la raza y el origen étnico.
En su informe de diciembre, el Departamento de Justicia concluyó que algunas de las disparidades podrían reducirse, "pero no sin compensaciones", como predicciones de riesgo menos precisas. El departamento también dijo que usar la raza como un factor en el algoritmo podría desencadenar otras preocupaciones legales.
Aún así, está consultando con expertos sobre cómo hacer que el algoritmo sea más justo y ya está en marcha otra revisión de Pattern.
El fiscal general Merrick Garland ha ordenado al departamento que busque formas de evaluar los prejuicios raciales y hacer que la herramienta sea más transparente, dijo una portavoz.
Una opción es ajustar los puntos de corte entre las categorías de riesgo, lo que permite que más presos obtengan créditos para la liberación, lo que "maximizaría el acceso al alivio de la Ley del Primer Paso al tiempo que garantiza la seguridad pública", dijo.
En última instancia, Garland tendrá que aprobar una nueva versión. Entonces, la Justicia tiene que reevaluar a las 14.000 personas en prisión que fueron agrupadas en la categoría equivocada.
"Este es solo un ejemplo de las formas en que los sistemas de inteligencia artificial dañinos se están implementando en todo, desde el sistema legal penal hasta las decisiones laborales y quién tiene acceso a la vivienda y los beneficios sociales", dijo Sasha Costanza-Chock, directora de investigación y diseño. para la Algorithmic Justice League, que estudia las implicaciones sociales de la inteligencia artificial.
Costanza-Chock dijo que la responsabilidad de demostrar que la herramienta Pattern no tiene resultados racistas y sexistas recae en el Departamento de Justicia.
“Especialmente cuando los sistemas son de alto riesgo y afectan la libertad de las personas, necesitamos una supervisión mucho más clara y fuerte”, dijo Costanza-Chock.
buscando resolución
A Felman, el abogado de Florida que trabaja con la American Bar Association, le preocupa que la herramienta continúe poniendo en desventaja a muchos presos de color.
"Comenzaremos a ver que más prisioneros salgan temprano", dijo. "Mi preocupación es que el color de su piel no refleje la equidad".
Ahmad de la ACLU dijo que ya ha visto suficiente.
"No existen soluciones técnicas para estos problemas que puedan hacer que Pattern y herramientas similares sean seguras y justas de usar", dijo Ahmad. "Instamos al Departamento de Justicia a que suspenda el uso de Pattern hasta que pueda abordar adecuadamente estas preocupaciones".
Hamilton, que estudia evaluaciones de riesgo, cree que vale la pena conservar la herramienta Patrón. Considere la alternativa, dijo: decisiones tomadas por personas que tienen todo tipo de prejuicios.
"Así que lo desafortunado es que es mejor que el instinto visceral de los humanos muy defectuosos que todos somos, y ¿podemos mejorarlo más que marginalmente, y eso es en lo que todos estamos trabajando?" Dijo Hamilton.