Incidents associés
Au cours des quatre dernières années, le service de police de Chicago a tenu une liste des personnes qui, selon eux, sont les plus susceptibles d'être impliquées dans une fusillade. La liste, connue sous le nom de « heat list » ou liste de sujets stratégiques, a été élaborée à l'aide d'un algorithme secret et contient les noms de plus d'un millier de personnes à un moment donné.
Au cours d'une année record pour les taux de violence armée, le surintendant Eddie Johnson a fait l'éloge de la liste et de l'utilisation par le département des mégadonnées pour prédire les crimes. En mai, le CPD a signalé que trois victimes sur quatre par balle en 2016 figuraient sur la liste des sujets stratégiques. Le nombre de personnes arrêtées en lien avec des fusillades était encore plus impressionnant : 80 % étaient sur le SSL, disent-ils.
Bien que le département n'ait pas tardé à vanter l'exactitude de la liste, il n'y a aucun moyen de vérifier indépendamment leurs affirmations. Les noms sur la liste sont privés et le ministère n'expliquera même pas quelles variables sont utilisées pour déterminer le classement d'une personne sur la liste. En d'autres termes, nous avons dû croire le ministère sur parole que son programme de mégadonnées fonctionne.
Cela a changé cette semaine avec la publication d'un rapport de RAND Corporation dans le Journal of Experimental Criminology. Lors du premier audit indépendant du SSL du département, les chercheurs ont découvert qu'une version 2013 de la liste n'était pas aussi précieuse que le département le prétend.
"Les individus sur le SSL ne sont pas plus ou moins susceptibles d'être victimes d'un homicide ou d'une fusillade que le groupe [témoin]", écrivent les auteurs. L'utilisation de la liste par la police n'a également eu aucun effet sur les niveaux de violence à l'échelle de la ville de Chicago.
Alors que les auteurs de l'étude ont constaté que les individus sur le SSL étaient en effet plus susceptibles d'être arrêtés pour une fusillade, les chercheurs ont supposé que cela se produisait parce que les agents utilisaient la liste comme pistes pour clore les affaires. Cependant, le surintendant Johnson a déclaré aussi récemment que le mois dernier que la liste n'était pas utilisée pour cibler des personnes à arrêter.
"L'une des principales conclusions [de l'étude] était que la police sur le terrain, les personnes sur le terrain, ne reçoivent pas beaucoup de formation sur la façon d'utiliser cette liste et ce que cela signifie", explique l'auteur principal Jessica Saunders.
Lorsqu'on lui a demandé un commentaire hier après-midi, le porte-parole du CPD, Anthony J. Guglielmi, a déclaré qu'il n'était pas au courant du rapport. Dans une déclaration publiée aujourd'hui, qui comprend une réponse point par point, la police souligne que le SSL a considérablement changé depuis la version 2013 qui fait l'objet de l'analyse de RAND.
"L'évaluation a été menée sur un premier modèle de l'algorithme qui n'est plus utilisé aujourd'hui... Nous utilisons actuellement la version 5 de SSL, qui est plus de 3 fois plus précise que la version examinée par RAND", indique le communiqué.
Mais Saunders dit que ses découvertes peuvent toujours s'appliquer à l'outil que CPD utilise aujourd'hui.
"Les résultats de cette étude ne sont probablement pas modifiés en améliorant la liste", déclare Saunders. "Ce que nous avons vraiment constaté, c'est qu'ils ne savaient pas quoi faire de la liste et qu'il n'y avait aucune intervention liée à la liste. Donc, à mon avis, peu importe la qualité de la liste, si vous ne savez pas quoi en faire.
Saunders dit que le CPD doit examiner attentivement les interventions qu'il utilise sur les personnes figurant sur la liste afin de prévenir le crime. Les tactiques telles que les appels et les visites à domicile, que le CPD utilise parfois en conjonction avec la liste, ne peuvent être efficaces si elles ne sont pas appliquées à tous les niveaux.
Dans sa déclaration officielle, le CPD indique que cette stratégie d'intervention a également évolué avec le SSL depuis 2013 : ils sont désormais utilisés dans chaque district de police, et les mesures sur les interventions sont désormais "entièrement intégrées dans notre cadre de responsabilité CompStat et nos réunions hebdomadaires Compstat".
Pourtant, ceux qui étudient la police des mégadonnées disent que le rapport de cette semaine de RAND est troublant.
"Je pense qu'il y a une vraie question maintenant après [the] RAND [report]", déclare Andrew Ferguson, professeur de droit à l'Université du district de Columbia à Washington. « Nous ne savons pas à quel point ces listes sont efficaces, sauf ce que la police nous dit. C'est l'une des premières analyses des facteurs de risque.
Les services de police et les organisations de justice pénale à travers le pays utilisent de plus en plus des algorithmes comme celui de Chicago pour prédire les lieux et les auteurs de futurs crimes. Et à une époque marquée par les fusillades policières contre de jeunes hommes noirs, les mégadonnées ont été retenues comme un moyen d'éviter le profilage racial et de réduire la violence.
Mais peu de villes mettent leurs algorithmes à la disposition du public ou des organisations qui travaillent avec les communautés les plus exposées à la violence. L'étude RAND de cette semaine est l'une des deux seules évaluations indépendantes des programmes de police prédictive qui ont été réalisées à l'échelle nationale.
Compte tenu du voile de secret qui recouvre la police des mégadonnées, beaucoup ont remis en question l'exactitude et l'équité des algorithmes. Une enquête de ProPublica plus tôt cette année a révélé qu'un algorithme d'évaluation des risques utilisé en Floride présentait des disparités raciales importantes et n'était que légèrement plus précis qu'un tirage au sort.
L'Electronic Frontier Foundation et l'American Civil Liberties Union of Illinois ont toutes deux exprimé leurs inquiétudes quant à la manière dont la liste des sujets stratégiques de Chicago traite la question de la race. Le département de police de Chicago a déclaré que la race n'est pas l'une des 11 variables pondérées qu'il utilise pour déterminer le classement d'une personne sur la liste, mais d'autres variables qu'ils utilisent peuvent coder pour la race de manière moins explicite. Par exemple, l'adresse d'une personne dans un quartier très ségrégué de Chicago pourrait indiquer la richesse et la race d'une personne.
"L'analyse RAND devrait être le début, et non la fin, pour déterminer si ces systèmes fonctionnent ou non", déclare Ferguson. «L'idée sous-jacente de prioriser les ressources policières sur les personnes les plus à risque est tout à fait logique. L'inconvénient de se tromper dans cette prédiction signifie beaucoup de ressources gaspillées. Je pense donc que nous devons déterminer s'il est possible de hiérarchiser les risques, puis de décider si la police est vraiment le bon remède une fois que nous avons identifié les risques grâce à la police du Big Data.