Incidents associés

EN AMÉRIQUE, les ordinateurs sont utilisés depuis de nombreuses années pour faciliter les décisions de mise en liberté sous caution et de condamnation. Leurs partisans soutiennent que la logique rigoureuse d'un algorithme, formé avec une grande quantité de données, peut porter des jugements sur la récidive d'un condamné qui ne sont pas obscurcis par les préjugés humains. Deux chercheurs ont maintenant mis à l'épreuve un tel programme, COMPAS. Selon leur étude, publiée dans Science Advances, COMPAS n'a fait ni mieux ni moins bien que des personnes sans expertise particulière.
Julia Dressel et Hany Farid du Dartmouth College dans le New Hampshire ont sélectionné 1 000 accusés au hasard dans une base de données de 7 214 personnes arrêtées dans le comté de Broward, en Floride, entre 2013 et 2014, qui avaient fait l'objet d'une analyse COMPAS. Ils ont divisé leur échantillon en 20 groupes de 50. Pour chaque accusé, ils ont créé une brève description qui incluait le sexe, l'âge et les condamnations antérieures, ainsi que l'accusation pénale encourue.
Recevez notre newsletter quotidienne Améliorez votre boîte de réception et recevez notre envoi quotidien et les choix de l'éditeur.
Ils se sont alors tournés vers Amazon Mechanical Turk, un site qui recrute des volontaires pour effectuer de petites tâches en échange d'argent. Ils ont demandé à 400 de ces volontaires de prédire, sur la base des descriptions, si un accusé particulier serait arrêté pour un autre crime dans les deux ans suivant sa mise en accusation (à l'exclusion de toute peine de prison qu'il aurait pu purger) - un fait maintenant connu en raison du passage de temps. Chaque volontaire n'a vu qu'un seul groupe de 50 personnes, et chaque groupe a été vu par 20 volontaires. Lorsque Mme Dressel et le Dr Farid ont calculé les chiffres, ils ont constaté que les volontaires avaient correctement prédit si quelqu'un avait été de nouveau arrêté 62,1% du temps. Lorsque les jugements des 20 qui ont examiné le cas d'un accusé particulier ont été mis en commun, ce chiffre est passé à 67%. COMPAS avait obtenu un score de 65,2 %, soit essentiellement la même chose que les volontaires humains.
Pour voir si la mention de la race d'une personne (une question épineuse dans le système de justice pénale américain) affecterait de tels jugements, Mme Dressel et le Dr Farid ont recruté 400 volontaires supplémentaires et ont répété leur expérience, cette fois en ajoutant la race de chaque accusé à la description. Cela n'a fait aucune différence. Les participants ont identifié les personnes réarrêtées avec une précision de 66,5 %.
Tout cela suggère que COMPAS, bien qu'imparfait, est en effet aussi bon que le bon sens humain pour analyser les faits pertinents afin de prédire qui reviendra et ne reviendra pas à l'attention de la loi. C'est encourageant. Qu'il s'agisse d'un bon rapport qualité-prix, cependant, est une question différente, car Mme Dressel et le Dr Farid ont conçu leur propre algorithme qui était aussi précis que COMPAS pour prédire la réarrestation lorsqu'il était alimenté par les données du comté de Broward, mais qui n'implique que deux entrées - le l'âge du prévenu et le nombre de condamnations antérieures.
Comme le souligne Tim Brennan, scientifique en chef chez Equivant, qui fabrique COMPAS, l'algorithme des chercheurs, ayant été formé et testé sur des données provenant d'un seul et même endroit, pourrait s'avérer moins précis s'il est confronté à des enregistrements d'ailleurs. Mais tant que l'algorithme derrière COMPAS lui-même reste propriétaire, une comparaison détaillée des vertus des deux n'est pas possible.