Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1018

Incidentes Asociados

Incidente 5417 Reportes
Predictive Policing Biases of PredPol

Incidente 4339 Reportes
Chicago Police's Strategic Subject List Reportedly Biased Along Racial Lines

Loading...
La vigilancia predictiva no es tan predictiva como cree
cfr.org · 2017

El problema de la vigilancia siempre ha sido que es posterior al hecho. Si los agentes de la ley pudieran estar en el lugar correcto en el momento correcto, se podría prevenir el crimen, se podrían salvar vidas y la sociedad seguramente sería más segura. En los últimos años, la tecnología policial predictiva se ha promocionado como una panacea. Las referencias a Minority Report son aparentemente obligatorias cuando se escribe sobre el tema, pero ocultan un problema crítico: la vigilancia predictiva no es ciencia ficción; es una versión más elaborada de prácticas existentes y defectuosas.

Vigilancia predictiva es un término general para describir el uso que hacen las fuerzas del orden público de nuevas herramientas de big data y aprendizaje automático. Hay dos tipos de herramientas: sistemas basados en personas y basados en ubicación. Los sistemas basados en personas, como la Lista de Sujetos Estratégicos de Chicago, utilizan una variedad de factores de riesgo, incluido el análisis de las redes sociales, para identificar a los posibles delincuentes. Un informe de 2015 indicó que el Departamento de Policía de Chicago había reunido una lista de "aproximadamente 400 personas identificadas por ciertos factores como probables involucradas en delitos violentos". Esto plantea una serie de preguntas sobre libertades civiles sobre qué grado de libertad se debe otorgar a la policía para realizar análisis de riesgo en personas sin antecedentes penales. En el futuro, estas preguntas serán cada vez más apremiantes a medida que las revelaciones de puntajes de amenazas, StingRays y tecnología de reconocimiento facial continúen acaparando titulares.

En la actualidad, sin embargo, la mayoría de los algoritmos policiales predictivos conocidos públicamente se basan en la ubicación. Se sabe que veinte de los cincuenta departamentos de policía más grandes del país usan dichos algoritmos, todos los cuales se basan en datos históricos de delitos, como llamadas al 911 e informes policiales. Según las tendencias de los datos, estos algoritmos dirigen a la policía a lugares que probablemente experimenten delitos en un momento determinado. Desafortunadamente, el Departamento de Justicia ha estimado que menos de la mitad de los delitos violentos e incluso menos delitos contra la propiedad doméstica se denuncian a la policía. Un algoritmo que intenta hacer predicciones basadas en datos históricos en realidad no analiza el crimen; está analizando cómo responde la policía a los delitos que conocen.

Esto simplemente refuerza los sesgos de las prácticas policiales existentes. En octubre, el Grupo de Análisis de Datos de Derechos Humanos publicó un estudio que aplicó un algoritmo policial predictivo a los registros de delitos de drogas del Departamento de Policía de Oakland de 2010. El estudio encontró que el algoritmo enviaría oficiales "casi exclusivamente a vecindarios minoritarios de bajos ingresos", a pesar de el hecho de que se estima que los usuarios de drogas están muy dispersos por toda la ciudad. El algoritmo predictivo esencialmente envió a los policías a áreas en las que ya habían realizado arrestos, sin identificar nuevas áreas donde podrían aparecer drogas.

El algoritmo que analizaron los investigadores fue escrito por PredPol, uno de los mayores proveedores de sistemas policiales predictivos en los Estados Unidos, y fue elegido por ser uno de los pocos algoritmos publicados abiertamente en una revista científica. PredPol dice que utiliza “solo tres puntos de datos para hacer predicciones: tipo de delito anterior, lugar del delito y hora del delito. No utiliza información personal sobre individuos o grupos de individuos, lo que elimina cualquier libertad personal y preocupación por la creación de perfiles”. Irónicamente, estos estándares parsimoniosos aseguran que el algoritmo no pueda mejorar el registro histórico; sólo puede reforzarlo.

Algunos sistemas, como el de IBM, incorporan sabiamente otros puntos de datos como el clima y la proximidad de las licorerías. Sin embargo, a diferencia de PredPol, la gran mayoría de estos algoritmos son secretos comerciales y no están sujetos a revisión independiente. El secreto en torno al software dificulta que los departamentos de policía y los gobiernos locales tomen decisiones bien informadas. También impide que el público participe en el proceso de toma de decisiones y genera desconfianza.

Eso no quiere decir que los departamentos de policía no deban usar software para analizar sus datos. De hecho, un estudio de 2015 encontró que la tecnología policial predictiva había ayudado significativamente a la aplicación de la ley en Los Ángeles y Kent, Inglaterra. En Norcross, Georgia, la policía afirma que vio una reducción del 15 por ciento en robos y hurtos dentro de los cuatro meses posteriores al despliegue de PredPol. El Departamento de Policía de Atlanta estaba igualmente entusiasmado.

Es inevitable un mayor desarrollo de la tecnología, por lo que los gobiernos locales y los departamentos de policía deben desarrollar estándares y prácticas apropiados. Para empezar, estos algoritmos no deberían llamarse "predictivos". No son bolas de cristal; están haciendo pronósticos basados en datos limitados. Se deben incorporar puntos de datos menos obvios, como farolas rotas o la presencia de árboles, para refinar estos pronósticos. Al igual que en St. Louis, no deberían usarse para delitos menores. Nunca se debe aceptar que los pronósticos algorítmicos basados en personas cumplan con el requisito de sospecha razonable para detener a una persona, y solo los especialistas en datos deben tener acceso al software para red

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd