Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1008

Incidentes Asociados

Incidente 5417 Reportes
Predictive Policing Biases of PredPol

Loading...
La policía está usando software para predecir el crimen. ¿Es un "santo grial" o está sesgado contra las minorías?
washingtonpost.com · 2016

Durante un turno de octubre, el sargento de policía de Los Ángeles. Charles Coleman, de la División Foothill, habla con Clarance Dolberry, con una gorra de béisbol, y Veronica De Leon, con una máscara de Mardi Gras, en una parada de autobús. El software que predice posibles delitos futuros ayuda a guiarlo por dónde patrulla. (Patrick T. Fallon para The Washington Post)

sargento Charles Coleman salió de su camioneta de la policía y escaneó una calle llena de basura popular entre las personas sin hogar de la ciudad, respondiendo a un crimen que aún no había ocurrido.

No fue una llamada al 911 lo que trajo al oficial del Departamento de Policía de Los Ángeles a este lugar, sino una computadora zumbante procesando años de datos criminales para llegar a una predicción: un robo de auto o robo probablemente ocurriría cerca de aquí en esta mañana en particular.

Con la esperanza de evitarlo, Coleman inspeccionó una fila de vehículos recreativos destartalados utilizados como refugio por personas sin hogar, despertó a un hombre que dormía en una camioneta y golpeó el costado de una choza hecha de madera contrachapada y lonas.

"¿Cómo van las cosas, cariño?" le preguntó a una mujer que salió. Coleman escuchó con comprensión cómo ella describió cómo casi fue violada a punta de cuchillo meses antes, y dijo que el área era “realmente difícil” para una mujer.

Pronto, Coleman estaba de regreso en su SUV en camino a luchar contra el próximo crimen previo. Docenas de otros oficiales de LAPD estaban haciendo lo mismo en otros lugares, guiados por el sistema de pronóstico de delitos conocido como PredPol.

La “vigilancia predictiva” representa un cambio de paradigma que está arrasando con los departamentos de policía de todo el país. Los organismos encargados de hacer cumplir la ley intentan cada vez más pronosticar dónde y cuándo ocurrirá el delito, o quién podría ser el perpetrador o la víctima, utilizando software que se basa en algoritmos, las mismas matemáticas que utiliza Amazon para recomendar libros.

“La esperanza es el santo grial de la aplicación de la ley: prevenir el crimen antes de que suceda”, dijo Andrew G. Ferguson, profesor de derecho de la Universidad del Distrito de Columbia que prepara un libro sobre big data y vigilancia.

Usadas ahora por 20 de las 50 fuerzas policiales más grandes del país, las tecnologías están en el centro de un debate cada vez más acalorado sobre su efectividad, el impacto potencial en las comunidades pobres y minoritarias y las implicaciones para las libertades civiles.

Algunos departamentos de policía han aclamado a PredPol y otros sistemas como instrumentos para reducir el crimen, enfocando recursos escasos en lugares problemáticos e individuos y reemplazando las corazonadas y posibles sesgos de los oficiales con datos duros.

Pero los grupos de privacidad y justicia racial dicen que hay poca evidencia de que las tecnologías funcionen y señalan que las fórmulas que impulsan los sistemas son en gran parte un secreto. Les preocupa que la práctica pueda concentrar injustamente la aplicación de la ley en las comunidades de color al basarse en datos policiales racialmente sesgados. Y les preocupa que los agentes que esperan que ocurra un robo o un hurto sean más propensos a tratar a las personas con las que se encuentran como posibles delincuentes.

Los experimentos son una de las pruebas más importantes de algoritmos que son fuerzas cada vez más poderosas en nuestras vidas, que determinan puntajes de crédito, miden el desempeño laboral y señalan a los niños que podrían ser abusados. La Casa Blanca ha estado estudiando cómo equilibrar los beneficios y los riesgos que plantean.

“Las capacidades técnicas de los grandes datos han alcanzado un nivel de sofisticación y omnipresencia que exige considerar la mejor manera de equilibrar las oportunidades que brindan los grandes datos con las cuestiones sociales y éticas que plantean estas tecnologías”, escribió la Casa Blanca en un informe reciente.

Un cambio sísmico en la vigilancia

Eran las 6:45 a. m. de un lunes, pero la hoja de papel que Coleman sostenía en sus manos ofrecía una idea de cómo podría ser el 24 de octubre: un robo de automóvil cerca de la esquina de Van Nuys y Glenoaks, un robo en Laurel Canyon y Roscoe y así.

PredPol produce el pronóstico del crimen al comienzo de cada turno. Los cuadros rojos se distribuyeron en los mapas de Google del Valle de San Fernando, destacando ubicaciones de 500 por 500 pies cuadrados donde PredPol concluyó que era probable que se produjeran delitos contra la propiedad.

sargento Charles Coleman explica las posibles fuentes de delincuencia en un mapa para patrullas utilizando mapas predictivos de zonas de vigilancia del Departamento de Policía de Los Ángeles. (Patrick T. Fallon para The Washington Post)

Los mapas de zonas policiales predictivas utilizados por el Departamento de Policía de Los Ángeles en la División Foothill de LAPD muestran dónde pueden ocurrir delitos. (Patrick T. Fallon para The Washington Post)

El pronóstico es vanguardista, pero se utiliza al servicio de una filosofía policial anticuada: la disuasión. Entre las llamadas de ese día, se esperaba que Coleman y otros oficiales pasaran tiempo y se relacionaran con las personas en las aproximadamente 20 cajas que PredPol identificó alrededor de la División Foothill.

Coleman se sentó al volante de su camioneta, planeando qué cajas golpear de la misma manera que alguien que consulta un mapa del tiempo podría sopesar si llevar un paraguas.

“No siempre vamos a atrapar a alguien en la caja, pero al estar allí prevenimos el crimen”, dijo la capitana Elaine Morales, quien supervisa la División Foothill.

Foothill está lejos del brillo de Hollywood en el extremo norte de L.A., pero ha estado en t

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd