Incidents associés

Ce qui est présenté par ShotSpotter comme une bonne nouvelle pour les personnes qui se sentent accusées à tort, ne semble pas vraiment réconfortant.
La technologie du micro et l'IA de ShotSpotter s'associent pour signaler d'éventuels coups de feu aux clients des forces de l'ordre. C'est très aléatoire, a-t-il dit avec tous les jeux de mots possibles. ShotSpotter dit [c'est presque 100 % précis](https://www.shotspotter.com/shotspotter-responds-to-false-claims/#:~:text=This%20is%20absolutely%20false.,over%20the%20last %20trois%20ans.) et peuvent jouer un rôle important dans la réduction de la criminalité armée.
Clients réels dites autre chose:
Une enquête de 2013 sur l'efficacité de ShotSpotter à Newark , New Jersey a révélé que de 2010 à 2013, les capteurs du système ont alerté la police 3 632 fois, mais n'ont conduit qu'à 17 arrestations réelles. Selon l'enquête, 75 % des alertes par balle étaient de fausses alertes.
97 % de précision ? Pas ce que nous avons vu, dit le PD de San Diego:
Un porte-parole du département de police de San Diego [a déclaré à Voice of San Diego](https://www.voiceofsandiego.org/topics/public-safety/shotspotter-sensors-send-sdpd-officers-to-false-alarms-more-often -que-annoncé/) qu'au cours des quatre années d'utilisation de ShotSpotter (en septembre 2020), les agents n'avaient procédé qu'à deux arrestations en réponse à une alerte et une seule d'entre elles était directement liée à l'alerte.
Pendant ce temps, 72 des 584 alertes ShotSpotter au cours de cette période ont été jugées non fondées, "un taux 25 fois plus élevé que le taux de faux positifs de 0,5% mis en avant par la société", a rapporté la Voix de San Diego, sur la base des données fournies. par le service de police de la ville.
Précision mise à part, [cela peut-il aider] (https://www.techdirt.com/2021/08/26/chicago-pd-oversight-says-shotspotter-tech-is-mostly-useless-when-it-comes-to -fighting-gun-crime/) réduire la violence armée et les actes criminels liés aux armes à feu ? [Encore une fois, la réponse est non](https://igchicago.org/2021/08/24/oig-finds-that-shotspotter-alerts-rarely-lead-to-evidence-of-a-gun-related-crime -et-que-la-présence-de-la-technologie-change-le-comportement-de-la-police/).
La section de la sécurité publique du bureau de l'inspecteur général (OIG) de la ville de Chicago a publié un rapport sur l'utilisation par le service de police de Chicago (CPD) de la technologie de détection acoustique des coups de feu ShotSpotter et sur la réponse du CPD aux notifications d'alerte ShotSpotter. L'OIG a conclu de son analyse qu'il est rarement démontré que les réponses du CPD aux alertes ShotSpotter conduisent à des arrêts d'enquête qui pourraient avoir une valeur d'enquête et produisent rarement des preuves d'un crime lié aux armes à feu.
Cela ne signifie pas que le PD de Chicago ne pense pas que la technologie est utile. À Chicago, les agents apprécient toujours ShotSpotter malgré son inexactitude car il leur permet de faire le genre de choses qu'ils veulent faire.
En examinant les récits ISR [rapport d'arrêt d'enquête] pour les mentions d'alertes ShotSpotter, l'OIG a également identifié 10 ISR (13,9 %) dans lesquels les agents de signalement ** ont fait référence aux résultats agrégés du système ShotSpotter comme informant leur décision d'initier un arrêt ou leur plan d'action pendant l'arrêt, même lorsqu'ils ne répondaient pas à une alerte ShotSpotter spécifique**. Par exemple, certains agents au cours de la période de rapport ont identifié le fait d'être dans une zone connue pour avoir des alertes fréquentes de ShotSpotter comme un élément du soupçon raisonnable requis pour justifier l'interpellation. D'autres agents ont déclaré avoir effectué des « palpations de protection » après un arrêt parce qu'ils savaient qu'ils se trouvaient dans des zones où les alertes ShotSpotter étaient fréquentes.
Un nouveau rapport de l'Associated Press - basé sur des enregistrements confidentiels de ShotSpotter partagés avec l'agence de presse - est plein du genre de bonnes/mauvaises nouvelles qui ont tendance à être aux prises avec des titres évasifs, comme celui-ci : "[Un document confidentiel révèle un rôle humain clé dans technologie de tir] (https://apnews.com/article/shotspotter-artificial-intelligence-investigation-9cb47bbfb565dc3ef110f92ac7f83862).
Voici ce qui est remarquable dans ce rapport :
[A] document confidentiel de ShotSpotter obtenu par l'Associated Press décrit quelque chose que l'entreprise ne vante pas toujours à propos de son "système de police de précision" - que les employés humains peuvent rapidement annuler et inverser les déterminations de l'algorithme, et disposent d'un large pouvoir discrétionnaire pour décider si un son est un coup de feu, un feu d'artifice, le tonnerre ou autre chose.
De tels renversements se produisent 10 % du temps par un compte d'entreprise de 2021, ce qui, selon les experts, pourrait apporter de la subjectivité dans des décisions de plus en plus conséquentes et entrer en conflit avec l'une des raisons pour lesquelles l'IA est utilisée dans les outils d'application de la loi en premier lieu - pour réduire le rôle de humains trop faillibles.
L'AP est techniquement correct. ShotSpotter dit que sa technologie peut faire ce que la police ne peut pas : être omniprésente avec des oreilles prêtes. Ce qu'il propose aux magasins de flics est proche de la perfection, un taux de réussite de 97% pour entendre et localiser les coups de feu.
Ce qui n'est pas immédiatement clair, ce sont les soutiens humains. C'est absolument essentiel. Les bruits forts ne doivent pas être immédiatement considérés comme des coups de feu. D'où la nécessité d'employés humains formés pour trier les "possibles" des "confirmés".
Mais il y a un inconvénient à cela – un inconvénient tout aussi nocif que la volonté de certains PD de traiter chaque coup de feu présumé comme une autorisation générale de violer les droits de ceux qui se trouvent dans les environs signalés. Les techniciens humains de ShotSpotter [ne vous contentez pas de modifier les rapports] (https://www.techdirt.com/2021/08/23/investigation-shotspotters-practices-is-raising-questions-companys-angry-statement-really-doesnt- answer/) pour distinguer des choses comme les retours de flamme d'une voiture des coups de feu d'un criminel présumé. Ils ont également modifier les décisions et lieux de tir pour mieux répondre aux besoins des organismes d'application de la loi qui interagissent avec eux.
D'un côté, nous avons des humains à la recherche d'erreurs d'IA. D'autre part, nous avons des humains prêts à répondre à leurs clients des forces de l'ordre. Un vrai [pays de contrastes] (https://frinkiac.com/meme/S09E14/197780.jpg?b64lines=SU4gQ09OQ0xVU0lPTiwgTElCWUEgSVMgQQogTEFORCBPRiBDT05UUkFTVFMu) genre de situation et qui n'inspire pas exactement plus de confiance dans une entreprise de technologie policière qui a régulièrement exagéré l'exactitude de son produit principal.
Sans surprise, les dirigeants de ShotSpotter restent optimistes.
ShotSpotter a déclaré dans une déclaration à l'AP que le rôle humain est un contrôle positif de l'algorithme et que le document "en langage clair" reflète les normes élevées de précision que ses examinateurs doivent respecter.
"Nos données, basées sur l'examen de millions d'incidents, prouvent que l'examen humain ajoute de la valeur, de la précision et de la cohérence à un processus d'examen dont nos clients et de nombreuses victimes par balle dépendent", a déclaré Tom Chittum, vice-président de l'entreprise. d'analyses et de services médico-légaux.
C'est sans aucun doute vrai. Les réviseurs humains peuvent porter des jugements que le logiciel ne peut pas. Cela peut aider à limiter les faux positifs. D'un autre côté, nous avons vu des preuves que les examinateurs humains de ShotSpotter ne sont pas aussi bien formés que l'entreprise le prétend. Leurs experts ne sont pas vraiment des experts. Et, dans au moins deux cas, les examinateurs humains se sont engagés dans le type de service à la clientèle qui garantit la répétition des affaires du gouvernement (modification des rapports pour mieux s'adapter aux récits de la police) mais ne fait pas grand-chose pour protéger les personnes qui paient réellement pour ces services : les habitants des villes où la technologie a été déployée.
Si les employés humains de ShotSpotter modifient les rapports de coups de feu 10% du temps, cela signifie que le logiciel n'est pas aussi précis que l'entreprise le prétend. Et cela signifie probablement qu'ils modifient toujours les rapports à la demande des forces de l'ordre qui peuvent estimer qu'un faux positif doit être traité comme un réel positif ou estimer que la détection était trop éloignée de leurs violations des droits pour être utile dans leur rationalisation post hoc de leurs abus.
Quoi qu'il en soit, ShotSpotter doit être traité avec beaucoup plus de scepticisme que ce qui est observé dans ce rapport AP. L'entreprise affirme des faits qui ne sont pas prouvés, poursuit des journalistes pour avoir rapporté la vérité sur ses activités et se considère clairement comme un élément essentiel de l'équation de la justice pénale. Jusqu'à ce que l'entreprise soit disposée à laisser des experts extérieurs examiner sa technologie, l'entreprise doit être traitée comme faisant partie du problème, plutôt que comme une solution simple et bon marché à la criminalité armée.