Incidents associés

Des milliers de personnes sortent de prison fédérale ce mois-ci grâce à une loi appelée First Step Act, qui leur a permis d'obtenir une libération anticipée en participant à des programmes visant à faciliter leur retour dans la société.
Mais des milliers d'autres peuvent encore rester derrière les barreaux en raison de failles fondamentales dans la méthode du ministère de la Justice pour décider qui peut suivre la voie de la libération anticipée. Le plus gros défaut : des disparités raciales persistantes qui désavantagent les Noirs et les Bruns.
Dans un rapport publié quelques jours avant Noël en 2021, le département a déclaré que son outil algorithmique pour évaluer le risque qu'une personne en prison revienne au crime produisait des résultats inégaux. L'algorithme, connu sous le nom de Pattern, a surestimé le risque que de nombreux Noirs, Hispaniques et Asiatiques commettent de nouveaux crimes ou enfreignent les règles après leur sortie de prison. Dans le même temps, il a également sous-estimé le risque pour certains détenus de couleur en ce qui concerne un éventuel retour à un crime violent.
"Dès le début, les groupes de défense des droits civiques ont averti le Congrès et le ministère de la Justice que l'utilisation d'un outil d'évaluation des risques pour prendre ces décisions conduirait à des disparités raciales", a déclaré Aamra Ahmad, conseillère politique principale à l'American Civil Liberties Union.
"Le ministère de la Justice a constaté que seulement 7% des Noirs de l'échantillon étaient classés comme présentant un niveau de risque minimum, contre 21% des Blancs", a-t-elle ajouté. "Cet indicateur à lui seul devrait donner au ministère de la Justice une grande pause pour aller de l'avant."
La règle des conséquences imprévues
Les outils d'évaluation des risques sont courants dans de nombreux États. Mais les critiques ont déclaré que Pattern était la première fois que le système judiciaire fédéral utilisait un algorithme avec des enjeux aussi élevés.
Le Congrès a adopté le First Step Act en 2018 avec d'énormes majorités bipartites. Il est conçu pour préparer les personnes incarcérées à la vie par la suite en offrant des crédits en vue d'une libération anticipée pour travailler ou suivre des cours sur les compétences de vie et d'autres cours pendant qu'ils sont derrière les barreaux.
Des législateurs comme Sens. Sheldon Whitehouse du Rhode Island et John Cornyn du Texas se sont inspirés de réformes similaires de la justice pénale dans les États, qui, selon eux, ont entraîné une baisse de la population carcérale et de la criminalité. Les sénateurs ont souligné qu'environ 9 personnes incarcérées sur 10 finissaient par rentrer chez elles, et ils ont soutenu que les préparer à la libération était logique pour les personnes anciennement incarcérées et pour la sécurité publique.
Seuls les détenus qui présentent un risque faible ou minimal de récidive peuvent être admissibles aux programmes, ce niveau de risque étant déterminé à l'aide de l'algorithme Pattern.
"L'importance de cet outil d'évaluation des risques est qu'il divise tous les prisonniers fédéraux essentiellement en deux groupes : les personnes qui peuvent être créditées pour avoir fait ce programme et sortir plus tôt, et les personnes qui ne le peuvent pas", a déclaré Jim Felman, avocat à Tampa. , Floride, qui suit le First Step Act depuis des années.
La mise en œuvre a été difficile. Le ministère de la Justice a terminé la première version de Pattern à la hâte en raison d'un délai serré du Congrès.
Il a ensuite dû faire des ajustements après avoir découvert que Pattern souffrait d'erreurs mathématiques et humaines.
Environ 14 000 hommes et femmes incarcérés dans une prison fédérale se retrouvent toujours dans les mauvaises catégories de risque. Il y avait de grandes disparités pour les personnes de couleur.
"La législation, je pense, vient d'un bon endroit", a déclaré Melissa Hamilton, professeur de droit et de justice pénale à l'Université de Surrey qui étudie les évaluations des risques. "C'est juste que la règle des conséquences imprévues ne réalise pas vraiment les obstacles que cela allait avoir."
L'outil d'évaluation des risques "semble très technique, mais ce n'est pas le cas"
"Vous utilisez un terme comme" outil d'évaluation des risques ", il a cette patine scientifique, cela semble très technique, mais ce n'est pas le cas", a déclaré Patricia Richman, qui travaille sur les questions de politique nationale pour le public fédéral et les défenseurs communautaires. "Un outil d'évaluation des risques n'est qu'une série de décisions politiques."
Ces décisions politiques sont prises en déterminant ce qui compte comme facteur de risque et dans quelle mesure.
Les antécédents criminels peuvent être un problème, par exemple, parce que les forces de l'ordre ont l'habitude de surpolicer certaines communautés de couleur. D'autres facteurs tels que le niveau d'éducation et le fait qu'une personne ait payé ou non un dédommagement à ses victimes peuvent également être liés à la race et à l'origine ethnique.
Dans son rapport de décembre, le ministère de la Justice a conclu que certaines des disparités pourraient être réduites, "mais pas sans compromis", comme des prévisions de risque moins précises. Le département a également déclaré que l'utilisation de la race comme facteur dans l'algorithme pourrait déclencher d'autres problèmes juridiques.
Pourtant, il consulte des experts pour rendre l'algorithme plus juste et une autre refonte de Pattern est déjà en cours.
Le procureur général Merrick Garland a ordonné au département de rechercher des moyens d'évaluer les préjugés raciaux et de rendre l'outil plus transparent, a déclaré une porte-parole.
Une option consiste à ajuster les seuils entre les catégories de risque, permettant à davantage de prisonniers de gagner des crédits pour la libération, ce qui "maximiserait l'accès à l'allégement de la loi First Step tout en garantissant la sécurité publique", a-t-elle déclaré.
En fin de compte, Garland devra signer une nouvelle version. Ensuite, la justice doit réévaluer les 14 000 personnes en prison qui ont été regroupées dans la mauvaise catégorie.
"Ce n'est qu'un exemple de la manière dont les systèmes d'intelligence artificielle nuisibles sont déployés dans tout, du système juridique pénal aux décisions en matière d'emploi, en passant par qui a accès au logement et aux avantages sociaux", a déclaré Sasha Costanza-Chock, directrice de la recherche et de la conception. pour l'Algorithmic Justice League, qui étudie les implications sociales de l'intelligence artificielle.
Costanza-Chock a déclaré qu'il incombe au ministère de la Justice de prouver que l'outil Pattern n'a pas de résultats racistes et sexistes.
"Surtout lorsque les systèmes présentent un risque élevé et affectent la liberté des personnes, nous avons besoin d'une surveillance beaucoup plus claire et plus forte", a déclaré Costanza-Chock.
À la recherche d'une résolution
Felman, l'avocat de Floride travaillant avec l'American Bar Association, craignait que l'outil continue de désavantager de nombreux prisonniers de couleur.
"Nous allons commencer à voir plus de prisonniers sortir plus tôt", a-t-il déclaré. "Mon souci est que la couleur de leur peau ne reflète pas l'équité."
Ahmad de l'ACLU a dit qu'elle en avait assez vu.
"Il n'existe aucune solution technique à ces problèmes qui pourrait rendre Pattern et des outils similaires sûrs et équitables à utiliser", a déclaré Ahmad. "Nous demandons instamment au ministère de la Justice de suspendre l'utilisation de Pattern jusqu'à ce qu'il puisse répondre de manière adéquate à ces préoccupations."
Hamilton, qui étudie les évaluations des risques, pense que l'outil Pattern peut valoir la peine d'être conservé. Considérez l'alternative, a-t-elle dit: des décisions prises par des personnes qui ont toutes sortes de préjugés.
"Donc, c'est malheureux, c'est mieux que l'instinct des humains très imparfaits que nous sommes tous, et pouvons-nous l'améliorer plus que marginalement, et c'est sur quoi nous travaillons tous ?" dit Hamilton.