Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1013

Incidentes Asociados

Incidente 5417 Reportes
Predictive Policing Biases of PredPol

Incidente 4339 Reportes
Chicago Police's Strategic Subject List Reportedly Biased Along Racial Lines

Loading...
Los datos policiales podrían estar etiquetando a 'sospechosos' por delitos que no han cometido
theguardian.com · 2016

Un oficial de policía se para en la esquina de una intersección concurrida, escaneando a la multitud con su cámara corporal. La transmisión se transmite en vivo al Centro de delitos en tiempo real en la sede del departamento, donde un software especializado utiliza reconocimiento biométrico para determinar si hay personas de interés en la calle.

Los analistas de datos alertan al oficial de que un hombre con un puntaje de amenaza anormalmente alto se encuentra entre la multitud; el oficial se acerca a él para entregarle una “notificación personalizada”, advirtiéndole que la policía no tolerará conductas delictivas. Ahora está registrado en una base de datos de posibles delincuentes.

En lo alto, una avioneta equipada con una serie de cámaras de vigilancia vuela por la ciudad, vigilando persistentemente sectores enteros, registrando todo lo que sucede y permitiendo que la policía se detenga, retroceda y acerque a personas o vehículos específicos...

Nada de esto es tecnoparanoia de la mente de Philip K Dick o Black Mirror, sino tecnologías existentes que ya se están convirtiendo en partes estándar de la vigilancia.

La ciudad de Fresno, en California, es solo uno de los departamentos de policía de EE. UU. que ya utiliza un programa de software llamado "Cuidado" para generar "puntuaciones de amenazas" sobre un individuo, una dirección o un área. Como informó el Washington Post en enero, el software funciona mediante el procesamiento de "miles de millones de puntos de datos, incluidos informes de arresto, registros de propiedad, bases de datos comerciales, búsquedas en la web profunda y las publicaciones en las redes sociales [de la persona]".

Un folleto de Beware utiliza un ejemplo hipotético de un veterano diagnosticado con PTSD, lo que indica que también tienen en cuenta los datos relacionados con la salud. Los puntajes están codificados por colores para que los oficiales puedan saber de un vistazo qué nivel es la amenaza: verde, amarillo o rojo.

La lista de calor generada por computadora de Chicago perfiló a los delincuentes potenciales, esencialmente sospechosos de delitos que aún no se han cometido.

Esta es solo una de las muchas tecnologías nuevas que facilitan la “vigilancia basada en datos”. La recopilación de grandes cantidades de datos para su uso con programas de análisis permite que la policía recopile datos de casi cualquier fuente y por cualquier motivo.

El santo grial es la "vigilancia predictiva"

“Pronto será factible y asequible para el gobierno registrar, almacenar y analizar casi todo lo que hacemos”, escribe la profesora de derecho Elizabeth Joh en Harvard Law & Policy Review. “La policía se basará en alertas generadas por programas informáticos que analizan las enormes cantidades de información disponible en busca de patrones de actividad sospechosa”.

El santo grial de los análisis alimentados por datos se llama "vigilancia predictiva", que utiliza modelos estadísticos para decirles a los oficiales dónde es probable que ocurra un delito y quién es probable que lo cometa.

En febrero de 2014, el departamento de policía de Chicago (CPD, por sus siglas en inglés) atrajo la atención cuando los agentes visitaron de forma preventiva a los residentes en una "lista de calor" generada por computadora, que los marcaba como propensos a estar involucrados en un futuro delito violento. Estas personas no habían hecho nada malo, pero el CPD quería hacerles saber que los oficiales los vigilarían.

Esencialmente, ya eran considerados sospechosos de delitos aún no cometidos.

Desde Fresno a Nueva York, y de Río a Singapur, los analistas de datos se sientan al mando de salas de control futuristas, impulsadas por sistemas como el Centro de Operaciones Inteligentes de IBM y el City Cockpit de Siemens. Los monitores se alimentan de cientos o incluso miles de cámaras de vigilancia en la ciudad.

¿Es esta realmente la promesa de una “ciudad inteligente”?

Estos analistas tienen acceso a bases de datos masivas de registros de ciudadanos. Los sensores instalados alrededor de la ciudad detectan el tráfico de peatones y actividades sospechosas. Los programas de software ejecutan análisis en todos estos datos para generar alertas y "percepciones procesables".

Ni IBM ni el Departamento de Policía de Chicago respondieron a una solicitud de comentarios. Pero, ¿este es el nuevo modelo de cómo se debe hacer la vigilancia en una era de "ciudades inteligentes"?

Estos análisis se pueden utilizar con gran eficacia, mejorando potencialmente la capacidad de la policía para tomar decisiones más informadas y menos sesgadas sobre la aplicación de la ley. Pero a menudo se utilizan de forma dudosa y con fines represivos. No está claro, especialmente para las herramientas de análisis desarrolladas y vendidas por empresas tecnológicas privadas, cómo funcionan exactamente.

¿Qué datos están usando? ¿Cómo están pesando las variables? ¿Qué valores y sesgos están codificados en ellos? Incluso las empresas que los desarrollan no pueden responder a todas esas preguntas, y lo que saben no puede divulgarse debido a los secretos comerciales.

Entonces, cuando la policía dice que está utilizando técnicas basadas en datos para tomar decisiones más inteligentes, lo que realmente quiere decir es que confía en un software que escupe puntajes y modelos, sin una comprensión real de cómo hacerlo. Esto demuestra una tremenda fe en la veracidad de los análisis.

Los afectados pierden su derecho al tratamiento individualizado, ya que los sistemas los tratan como una mera recopilación de puntos de datos

Es absurdo que la policía no sepa qué decisiones, pesos, valores y sesgos están integrados en los análisis que utilizan. Oscurece los factores y las decisiones que influyen en la forma en que opera la policía.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd