Incidents associés
Les programmes informatiques qui effectuent des évaluations des risques des suspects de crime sont de plus en plus courants dans les salles d'audience américaines et sont utilisés à chaque étape des systèmes de justice pénale pour déterminer qui peut être libéré ou bénéficier d'une libération conditionnelle, et le montant de la caution qu'ils doivent payer. En 2016, les résultats de ces évaluations ont été communiqués aux juges lors de la condamnation pénale et un projet de loi sur la réforme de la peine a été proposé au Congrès pour rendre obligatoire l'utilisation de ces évaluations dans les prisons fédérales. Dans une étude des scores de risque attribués à plus de 7 000 personnes dans le comté de Broward en Floride en 2013 et 2014, ProPublica a découvert que seulement 20 % des personnes que le système prévoyait commettant des crimes violents l'avaient réellement fait. Pour l'ensemble des crimes, y compris les délits, 61 % des personnes susceptibles de récidiver ont été arrêtées pour des crimes ultérieurs au cours des deux années suivantes.
ProPublic a également constaté d'importantes disparités raciales. Bien que l'algorithme ait fait des erreurs à peu près au même rythme pour les accusés noirs et blancs, il a incorrectement étiqueté les accusés noirs comme susceptibles de commettre d'autres crimes à deux fois plus que les accusés blancs. À l'inverse, les accusés blancs ont été étiquetés à tort comme à faible risque plus souvent que les accusés noirs. Northpointe, la société qui a produit le système, connue sous le nom de COMPAS, a contesté l'analyse de ProPublic mais a refusé de partager ses calculs, qui, selon la société, étaient exclusifs. Cependant, il a révélé que les bases de sa formule incluaient des facteurs tels que le niveau d'éducation et le statut d'emploi parmi les 137 questions auxquelles les accusés ont répondu ou extraites des casiers judiciaires. Ces outils ont été déployés dans de nombreux domaines avant d'avoir fait l'objet d'une évaluation rigoureuse, et les accusés sont rarement en mesure de connaître la base des notes qui leur sont attribuées.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Scénario : Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner
Publication : ProPublica