Incidents associés

(Mise à jour ci-dessous)
Un rapport critique sur le système de détection de coups de feu ShotSpotter publié aujourd'hui par le L'inspecteur général (IG) de la ville de Chicago est la dernière indication de problèmes profonds avec la société de détection de coups de feu et sa technologie, y compris sa méthodologie, son efficacité, son impact sur les communautés de couleur et ses relations avec les forces de l'ordre. Le rapport a remis en question la "valeur opérationnelle" de la technologie et a constaté qu'elle augmentait l'incidence des tactiques d'arrêt et de fouille par les policiers dans certains quartiers.
Le rapport de l'IG fait suite à un rapport et un dépôt légal tout aussi critiques. File-Brief-as-Amici-Curiae-with-Ex.-A-Amicus-Brief-attached.pdf) par le MacArthur Justice Center de la Northwestern School of Law et dévastateur [reportage d'investigation] (https://www.vice.com /en/article/qj8xbq/police-are-telling-shotspotter-to-alter-evidence-from-gunshot-detecting-ai) par Vice News et Associated Press. La semaine dernière, l'AP profilé Michael Williams, un homme qui a passé un an en prison pour meurtre sur la base de preuves de ShotSpotter avant que ses accusations ne soient rejetées lorsque les procureurs ont admis qu'ils n'avaient pas suffisamment de preuves contre lui.
Shotspotter installe 20 à 25 microphones par mile carré dans les villes où il est installé, et utilise ces microphones pour essayer d'identifier et de localiser le son des coups de feu. Dans le passé, nous avons examiné cette entreprise et sa technologie du point de vue de la confidentialité. Placer des microphones en direct dans des lieux publics soulève d'importantes préoccupations en matière de confidentialité. Après avoir examiné les détails du système de ShotSpotter, nous n'avons pas pensé qu'il posait un menace active pour la vie privée, mais nous étions préoccupés par le précédent qu'il créait (et d'autres étaient d'accord).
Mais la confidentialité auditive n'est pas le principal problème avec ShotSpotter, il s'avère. Il existe plusieurs autres problèmes de libertés civiles très importants avec la technologie.
Tout d'abord, en tant que MacArthur Justice Center détails, ShotSpotter est déployé massivement dans les communautés de couleur, qui subissent déjà de manière disproportionnée le poids d'une police lourde présence. La police dit qu'elle choisit les quartiers de déploiement en fonction de l'endroit où se déroulent le plus de tirs, mais cela pose plusieurs problèmes :
- Les fausses alarmes de ShotSpotter envoient la police effectuer de nombreux déplacements (à Chicago, plus de 60 fois par jour) dans les communautés sans raison et en état d'alerte maximale, s'attendant à être potentiellement confronté à une situation dangereuse. Compte tenu du nombre déjà tragique de fusillades de Noirs par la police, c'est une recette pour les ennuis.
- En effet, l'analyse des données de la police de Chicago par l'IG de Chicago a révélé que la "fréquence globale perçue des alertes ShotSpotter" dans certains quartiers conduit les agents à effectuer davantage d'interpellations et de palpations.
- Le placement de capteurs dans certains quartiers mais pas dans d'autres signifie que la police détectera plus d'incidents (réels ou faux) dans les endroits où se trouvent les capteurs. Cela peut fausser les statistiques sur les coups de feu et créer une justification statistique circulaire pour une surveillance excessive dans les communautés de couleur.
Deuxièmement, la méthodologie de ShotSpotter est utilisée pour fournir des preuves contre les accusés dans des affaires pénales, mais n'est pas transparente et n'a pas été examinée par des pairs ou autrement évaluée de manière indépendante. Ce n'est tout simplement pas acceptable pour les données utilisées devant les tribunaux.
Les capteurs de l'entreprise envoient automatiquement des fichiers audio aux analystes humains lorsque ces capteurs détectent des sons semblables à des coups de feu. Ces analystes décident ensuite si les sons sont des coups de feu ou d'autres bruits forts tels que des pétards, des retours de flammes de voitures ou des bruits de construction. Ils triangulent également le moment où les sons atteignent différents microphones pour essayer d'établir un emplacement pour le bruit, et si l'on pense qu'il s'agit du bruit d'un coup de feu, ils s'efforcent de déterminer combien de coups ont été tirés et quel type de pistolet est impliqué (comme un pistolet par rapport à une arme entièrement automatique).
ShotSpotter dépeint tout cela comme un processus simple et objectif, mais c'est tout sauf ça. Vice News et l'AP notent des exemples d'analystes de l'entreprise changeant leur jugement sur tous les types de résultats ci-dessus (que ShotSpotter dispute). De plus, la société utilise des algorithmes d'IA pour faciliter l'analyse - et comme pour tous les algorithmes d'IA, cela soulève des questions sur la fiabilité, la transparence et la reproductibilité des résultats. L'entreprise a refusé une demande de la publication indépendante de recherche sur les technologies de sécurité IPVM d'effectuer des tests indépendants de ses méthodologies.
La remise en question supplémentaire de la pertinence des preuves de ShotSpotter à utiliser devant les tribunaux est un troisième problème : la relation apparemment étroite de l'entreprise avec les forces de l'ordre. Un expert de ShotSpotter a admis lors d'un procès en 2016, par exemple, que la société avait reclassé les sons d'un hélicoptère à une balle à la demande d'un client du service de police, affirmant que de tels changements se produisaient "tout le temps" parce que "nous faisons confiance à nos clients chargés de l'application de la loi pour soyez vraiment franc et honnête avec nous. ShotSpotter utilise également les rapports des policiers comme «vérité de terrain» pour entraîner son algorithme d'IA à ne pas commettre d'erreurs. Une relation étroite entre ShotSpotter et la police n'est pas surprenante - les services de police sont les clients de l'entreprise et l'entreprise doit les satisfaire. Mais cela n'est pas compatible avec l'utilisation de son outil comme "données objectives" utilisées pour condamner les gens pour des crimes.
Enfin, il reste encore à débattre pour savoir si la technologie de ShotSpotter est même efficace. Nous pouvons discuter des implications d'une technologie sur les libertés civiles jusqu'à la fin des temps, mais si elle n'est pas efficace, il n'y a aucune raison de s'en soucier. Un certain nombre de villes ont cessé d'utiliser la technologie après avoir décidé que ShotSpotter créait trop de faux positifs (signalant des coups de feu là où il n'y en avait pas) et de faux négatifs (manquant des coups de feu qui ont eu lieu). Le rapport du MacArthur Justice Center a révélé qu'à Chicago, les premières réponses de la police à 88,7% des alertes ShotSpotter n'ont trouvé aucun incident impliquant une arme à feu. La société dispute si cela signifie que sa technologie est inexacte, soulignant que quelqu'un peut tirer avec une arme à feu mais ne laisse aucune preuve derrière lui. Mais un review du débat sur l'exactitude par l'IPVM a conclu que "bien que les données publiques ne permettent pas une estimation définitive des fausses alertes", le problème " est probablement nettement supérieur à ce que ShotSpotter insinue » parce que la société « utilise des hypothèses trompeuses et un calcul de précision trompeur » dans ses taux de précision annoncés.
Compte tenu de tous ces problèmes, les communautés et les services de police qui les desservent devraient rejeter cette technologie, au moins jusqu'à ce que ces problèmes soient résolus, notamment par une transparence totale de son fonctionnement et de son efficacité.
Mise à jour (14/10/21) :
Le PDG de Shotspotter, Ralph Clarke, nous a contactés pour contester vigoureusement les sources d'informations sur lesquelles nous nous sommes appuyés pour ce message, et a également repoussé les critiques de l'entreprise dans un [article](https://buffalonews.com/opinion/viewpoints-shotspotter -delivers-for-120-cities-and-can-keep-buffalo-safer/article_d857d12a-1571-11ec-a166-dba2ad5e0d29.html) publié le mois dernier dans le Buffalo News. Plus récemment, sa société a déposé une diffamation [poursuite](https://shotspottercomplaint. com/) contre Vice News ; leur plainte est un argument volumineux pour la technologie de l'entreprise. Deux points en particulier semblent mériter d'être soulignés :
Tout d'abord, pressé par des informations selon lesquelles la société a modifié son évaluation des détails des coups de feu au tribunal, Clarke m'a dit que la société fournit deux types de données sur les coups de feu : une alerte initiale en temps réel envoyée à la police peu de temps après la détection d'un coup de feu. , et un «rapport médico-légal détaillé» beaucoup plus approfondi qui est préparé pour les affaires judiciaires. Clarke a déclaré que ce qui a été rapporté comme Shotspotter "changeant son histoire" reflète les différences entre les rapports médico-légaux en temps réel et détaillés.
Deuxièmement, l'un des éléments du reportage sur Shotspotter qui m'a le plus alarmé était les références au fait que l'entreprise utilisait l'IA dans le cadre de son système. L'utilisation de preuves devant les tribunaux dérivées d'algorithmes d'IA soulève de graves problèmes de transparence, d'exactitude et d'équité. Clarke a déclaré qu'ils disposaient d'algorithmes utilisés pour "faire le calcul" pour trianguler l'emplacement des coups de feu en fonction de la synchronisation des données acoustiques de leurs capteurs, mais, pressé sur ce que cela signifiait, il a déclaré qu'ils ne sont pas des boîtes noires opaques d'apprentissage en profondeur. , mais simplement des algorithmes faisant des calculs qui pourraient autrement être faits à la main. Clarke a déclaré qu'un algorithme d'IA plus complexe est utilisé pour filtrer les "pops, booms et bangs" captés par les capteurs de l'entreprise qui seraient en fait des coups de feu avant que l'audio ne soit envoyé à des analystes humains pour examen. Ce n'est pas vraiment un problème; des inexactitudes dans un tel algorithme pourraient entraîner des coups de feu manqués, mais ne conduiront pas à des jugements de preuve injustes.
Clarke a également repoussé les critiques sur l'efficacité et la valeur coût-bénéfice de Shotspotter. Celles-ci impliquent des évaluations complexes de données du monde réel ainsi que des jugements de valeur que les experts et les communautés devront surveiller, évaluer et débattre. Comme toujours, nous pensons qu'aucune technologie policière ne devrait être déployée ou utilisée à moins que les communautés concernées ne le souhaitent clairement.