Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2496

Incidentes Asociados

Incidente 11215 Reportes
Police Departments Reported ShotSpotter as Unreliable and Wasteful

Loading...
Cuatro problemas con el sistema de detección de disparos ShotSpotter
aclu.org · 2021

(Actualizado a continuación)

Un informe crítico sobre el sistema de detección de disparos ShotSpotter emitido hoy por el El Inspector General (IG, por sus siglas en inglés) de la Ciudad de Chicago es el último indicio de problemas profundos con la compañía de detección de disparos y su tecnología, incluida su metodología, efectividad, impacto en las comunidades de color y relación con las fuerzas del orden. El informe cuestionó el “valor operativo” de la tecnología y descubrió que aumenta la incidencia de tácticas de detención y cacheo por parte de los agentes de policía en algunos vecindarios.

El informe del IG sigue a un [informe] (https://endpolicesurveillance.com/) y [presentación legal] igualmente críticos (https://endpolicesurveillance.com/documents/2021-05-03-Motion-for-Leave-to- File-Brief-as-Amici-Curiae-with-Ex.-A-Amicus-Brief-attached.pdf) por el Centro de Justicia MacArthur de la Northwestern School of Law y devastador [informe de investigación] (https://www.vice.com /en/article/qj8xbq/police-are-telling-shotspotter-to-alter-evidence-from-gunshot-detecting-ai) de Vice News y Associated Press. La semana pasada, AP perfiló Michael Williams, un hombre que pasó un año en la cárcel por cargos de asesinato basados en evidencia de ShotSpotter antes de que se desestimaran sus cargos cuando los fiscales admitieron que no tenían pruebas suficientes en su contra.

Shotspotter instala de 20 a 25 micrófonos por milla cuadrada en las ciudades donde está instalado y utiliza esos micrófonos para tratar de identificar y localizar el sonido de los disparos. En el pasado, hemos analizado esta empresa y su tecnología desde una perspectiva de privacidad. La colocación de micrófonos en vivo en lugares públicos plantea importantes problemas de privacidad. Después de mirar los detalles del sistema de ShotSpotter, no pensamos que representara una amenaza activa a la privacidad, pero nos preocupaba el precedente que sentaba (y otros estuvieron de acuerdo).

Pero resulta que la privacidad auditiva no es el principal problema con ShotSpotter. Hay varios otros problemas de libertades civiles muy significativos con la tecnología.

En primer lugar, como el Centro de Justicia MacArthur detalles, ShotSpotter se despliega abrumadoramente en comunidades de color, que ya soportan de manera desproporcionada la peor parte de un fuerte operativo policial. presencia. La policía dice que eligen los vecindarios para el despliegue en función de dónde se encuentran la mayoría de los tiroteos, pero hay varios problemas con eso:

  • Las falsas alarmas de ShotSpotter envían a la policía en numerosos viajes (en Chicago, más de 60 veces al día) a las comunidades sin ningún motivo y en alerta máxima esperando enfrentar una situación potencialmente peligrosa. Dada la ya trágica cantidad de tiroteos de personas negras por parte de la policía, esa es una receta para los problemas.
  • De hecho, el análisis de Chicago IG de los datos de la policía de Chicago encontró que la "frecuencia agregada percibida de alertas de ShotSpotter" en algunos vecindarios lleva a los oficiales a participar en más paradas y cacheos.
  • La colocación de sensores en algunos barrios pero no en otros significa que la policía detectará más incidentes (reales o falsos) en los lugares donde se encuentran los sensores. Eso puede distorsionar las estadísticas de disparos y crear una justificación estadística circular para el exceso de vigilancia en las comunidades de color.

En segundo lugar, la metodología de ShotSpotter se utiliza para proporcionar pruebas contra los acusados en casos penales, pero no es transparente y no ha sido revisada por pares ni evaluada de forma independiente. Eso simplemente no es aceptable para los datos que se utilizan en los tribunales.

Los sensores de la compañía envían automáticamente archivos de audio a analistas humanos cuando esos sensores detectan sonidos similares a disparos. Luego, esos analistas deciden si los sonidos son disparos u otros ruidos fuertes, como petardos, petardos de automóviles o ruidos de construcción. También triangulan el momento en que los sonidos llegan a diferentes micrófonos para tratar de establecer una ubicación para el ruido, y si se cree que es el sonido de un disparo, hacen un esfuerzo por averiguar cuántos disparos se hicieron y qué tipo de arma. está involucrado (como una pistola versus un arma totalmente automática).

ShotSpotter retrata todo esto como un proceso sencillo y objetivo, pero es todo lo contrario. Vice News y AP señalan ejemplos de analistas de la compañía que cambiaron sus juicios sobre todos los tipos de resultados anteriores (que ShotSpotter [disputa] (https://ipvm.com/reports/shot-vice?code=jsly)). Además, la empresa utiliza algoritmos de IA para ayudar en el análisis y, como ocurre con todos los algoritmos de IA, eso genera dudas sobre la confiabilidad, la transparencia y la reproducibilidad de los resultados. La empresa rechazó una solicitud de la publicación independiente de investigación de tecnología de seguridad IPVM para realizar pruebas independientes de sus metodologías.

Otro problema que se cuestiona aún más es la idoneidad de las pruebas de ShotSpotter para su uso en los tribunales: la relación aparentemente estrecha de la empresa con las fuerzas del orden. Un experto de ShotSpotter admitió en un juicio de 2016, por ejemplo, que la compañía reclasificó los sonidos de un helicóptero a una bala a pedido de un cliente del departamento de policía, diciendo que tales cambios ocurren "todo el tiempo" porque "confiamos en que nuestros clientes encargados de hacer cumplir la ley sea realmente sincero y honesto con nosotros”. ShotSpotter también utiliza los informes de los agentes de policía como "verdades sobre el terreno" al entrenar su algoritmo de IA para que no cometa errores. No sorprende la estrecha relación entre ShotSpotter y la policía: los departamentos de policía son los clientes de la empresa y la empresa necesita mantenerlos contentos. Pero eso no es compatible con el uso de su herramienta como “datos objetivos” utilizados para condenar a personas por delitos.

Finalmente, aún está en debate si la tecnología de ShotSpotter es efectiva. Podemos discutir sobre las implicaciones de las libertades civiles de una tecnología hasta el final de los tiempos, pero si no es efectiva, no hay razón para preocuparse. Varias ciudades han dejado de usar la tecnología después de decidir que ShotSpotter genera demasiados falsos positivos (reportando disparos donde no los hubo) y falsos negativos (falsos disparos que ocurrieron). El informe del MacArthur Justice Center encontró que en Chicago, las respuestas iniciales de la policía al 88.7 por ciento de las alertas de ShotSpotter no encontraron incidentes relacionados con un arma. La empresa disputa si esto significa que su tecnología es inexacta, señalando que alguien puede disparar un arma sin dejar evidencia. Pero una revisión del debate sobre la precisión de IPVM concluyó que "si bien los datos públicos no permiten una estimación definitiva de las alertas falsas", el problema " es probablemente significativamente mayor que lo que insinúa ShotSpotter” porque la compañía “utiliza suposiciones engañosas y un cálculo de precisión engañoso” en sus índices de precisión anunciados.

Dados todos estos problemas, las comunidades y los departamentos de policía que las atienden deben rechazar esta tecnología, al menos hasta que se aborden estos problemas, incluso mediante la total transparencia de su funcionamiento y eficacia.

Actualización (14/10/21):

El CEO de Shotspotter, Ralph Clarke, se acercó a nosotros para cuestionar enérgicamente las fuentes de información en las que confiamos para esta publicación, y también rechazó a los críticos de la compañía en un [artículo] (https://buffalonews.com/opinion/viewpoints-shotspotter -delivers-for-120-cities-and-can-keep-buffalo-safer/article_d857d12a-1571-11ec-a166-dba2ad5e0d29.html) publicado el mes pasado en Buffalo News. Más recientemente, su empresa presentó una [demanda] por difamación (https://shotspottercomplaint. com/) contra Vice News; su queja es un argumento voluminoso a favor de la tecnología de la empresa. Dos puntos en particular parecen dignos de destacar:

Primero, presionado por los informes de que la empresa ha cambiado su evaluación de los detalles de los disparos en los tribunales, Clarke me dijo que la empresa proporciona dos tipos de datos sobre los disparos: una alerta inicial en tiempo real enviada a la policía poco después de que se detecta un disparo , y un "informe forense detallado" mucho más completo que se prepara para casos judiciales. Clarke dijo que lo que se informó como que Shotspotter "cambió su historia" refleja las diferencias entre los informes forenses detallados y en tiempo real.

En segundo lugar, uno de los elementos de los informes sobre Shotspotter que más me alarmó fueron las referencias al hecho de que la empresa estaba utilizando IA como parte de su sistema. El uso de pruebas en los tribunales derivadas de algoritmos de IA plantea graves problemas de transparencia, precisión e imparcialidad. Clarke dijo que tienen algoritmos que se utilizan para "hacer los cálculos" en la triangulación de la ubicación de los disparos en función de la sincronización de los datos acústicos de sus sensores, pero, presionado sobre lo que eso significaba, dijo que no son cajas negras opacas de aprendizaje profundo. , sino simplemente algoritmos que hacen operaciones matemáticas que de otro modo podrían hacerse a mano. Clarke dijo que se utiliza un algoritmo de inteligencia artificial más complejo para filtrar los "estallidos, auges y explosiones" captados por los sensores de la compañía que se cree que en realidad son disparos antes de que el audio se envíe a analistas humanos para su revisión. Eso no es tan preocupante; Las imprecisiones en dicho algoritmo pueden dar como resultado algunos disparos fallidos, pero no darán lugar a juicios probatorios injustos.

Clarke también rechazó las críticas sobre la eficacia y el valor de costo-beneficio de Shotspotter. Estos implican evaluaciones complejas de datos del mundo real, así como juicios de valor que los expertos y las comunidades deberán monitorear, evaluar y debatir. Como siempre, no creemos que se deba implementar o utilizar ninguna tecnología policial a menos que las comunidades afectadas claramente la quieran.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd