Incidents associés

Le problème de la police a toujours été que c'est après coup. Si les agents chargés de l'application des lois pouvaient être au bon endroit au bon moment, le crime pourrait être prévenu, des vies pourraient être sauvées et la société serait sûrement plus sûre. Ces dernières années, la technologie de police prédictive a été présentée comme une telle panacée. Les références à Minority Report sont apparemment obligatoires lorsque l'on écrit sur le sujet, mais masquent un problème critique : la police prédictive n'est pas de la science-fiction ; c'est une version plus élaborée des pratiques existantes et défectueuses.
La police prédictive est un terme générique pour décrire l'utilisation par les forces de l'ordre des nouveaux outils de données volumineuses et d'apprentissage automatique. Il existe deux types d'outils : les systèmes basés sur la personne et les systèmes basés sur la localisation. Les systèmes axés sur la personne comme la liste des sujets stratégiques de Chicago utilisent une variété de facteurs de risque, y compris l'analyse des médias sociaux, pour identifier les délinquants probables. Un rapport de 2015 indiquait que le département de police de Chicago avait dressé une liste d'"environ 400 personnes identifiées par certains facteurs comme susceptibles d'être impliquées dans des crimes violents". Cela soulève une foule de questions sur les libertés civiles quant au degré de latitude qui devrait être accordé à la police pour effectuer une analyse des risques sur des personnes sans casier judiciaire. À l'avenir, ces questions deviendront de plus en plus pressantes à mesure que les révélations sur les scores de menace, les StingRays et la technologie de reconnaissance faciale continueront de faire la une des journaux.
À l'heure actuelle, cependant, la majorité des algorithmes de police prédictive connus du public sont basés sur la localisation. Vingt des cinquante plus grands services de police du pays sont connus pour utiliser de tels algorithmes, qui reposent tous sur des données historiques sur la criminalité, comme des appels au 911 et des rapports de police. Sur la base des tendances des données, ces algorithmes dirigent la police vers des endroits susceptibles de connaître des crimes à un moment donné. Malheureusement, le ministère de la Justice a estimé que moins de la moitié des crimes violents et encore moins de crimes contre les biens des ménages sont signalés à la police. Un algorithme essayant de faire des prédictions basées sur des données historiques ne s'intéresse pas réellement à la criminalité ; il s'agit de voir comment la police réagit aux crimes dont elle a connaissance.
Cela ne fait que renforcer les préjugés des pratiques policières existantes. En octobre, le groupe d'analyse des données sur les droits de l'homme a publié une étude qui appliquait un algorithme de police prédictive aux dossiers de crimes liés à la drogue du département de police d'Oakland à partir de 2010. L'étude a révélé que l'algorithme enverrait des agents "presque exclusivement dans les quartiers à faible revenu et minoritaires" - malgré le fait que l'on estime que les usagers de drogues sont largement dispersés dans la ville. L'algorithme prédictif a essentiellement envoyé des flics dans des zones où ils avaient déjà procédé à des arrestations, sans identifier de nouvelles zones où de la drogue pourrait apparaître.
L'algorithme analysé par les chercheurs a été écrit par PredPol, l'un des plus grands fournisseurs de systèmes de police prédictive aux États-Unis, et a été choisi pour être l'un des rares algorithmes publiés ouvertement dans une revue scientifique. PredPol dit qu'il n'utilise «que trois points de données pour faire des prédictions: le type de crime passé, le lieu du crime et l'heure du crime. Il n'utilise aucune information personnelle sur des individus ou des groupes d'individus, éliminant ainsi toute liberté personnelle et tout problème de profilage. Ironiquement, ces normes parcimonieuses garantissent que l'algorithme ne peut pas améliorer l'historique ; cela ne peut que le renforcer.
Certains systèmes, comme ceux d'IBM, intègrent judicieusement d'autres points de données comme la météo et la proximité des magasins d'alcools. Contrairement à PredPol, cependant, la grande majorité de ces algorithmes sont des secrets commerciaux et ne sont pas soumis à un examen indépendant. Le secret entourant le logiciel rend plus difficile pour les services de police et les gouvernements locaux de prendre des décisions en toute connaissance de cause. Elle empêche également le public de participer au processus décisionnel et sème la méfiance.
Cela ne veut pas dire que les services de police ne devraient pas utiliser de logiciels pour analyser leurs données. En fait, une étude de 2015 a révélé que la technologie de police prédictive avait considérablement aidé les forces de l'ordre à Los Angeles et dans le Kent, en Angleterre. À Norcross, en Géorgie, la police affirme avoir constaté une réduction de 15 % des vols et des cambriolages dans les quatre mois suivant le déploiement de PredPol. Le département de police d'Atlanta était également enthousiaste.
La poursuite du développement de la technologie est inévitable, de sorte que les gouvernements locaux et les services de police devraient élaborer des normes et des pratiques appropriées. Pour commencer, ces algorithmes ne devraient pas être qualifiés de "prédictifs". Ce ne sont pas des boules de cristal ; ils font des prévisions basées sur des données limitées. Des points de données moins évidents, comme des lampadaires cassés ou la présence d'arbres, devraient être incorporés pour affiner ces prévisions. Comme à Saint-Louis, ils ne devraient pas être utilisés pour des délits mineurs. Les prévisions algorithmiques basées sur la personne ne devraient jamais être acceptées comme répondant à l'exigence de suspicion raisonnable pour détenir un individu, et seuls les spécialistes des données devraient avoir accès au logiciel à red