Incidentes Asociados
La verdad sobre la policía predictiva y la raza
El domingo, el New York Times publicó un artículo de opinión bien intencionado sobre los temores del sesgo racial en la inteligencia artificial y los sistemas policiales predictivos. Se debe elogiar al autor, Bärí A. Williams, por participar en el debate sobre la construcción de sistemas informáticos "inteligentes" para predecir el crimen y por enmarcar estos desarrollos en términos de justicia racial. Una cosa que hemos aprendido sobre las nuevas tecnologías es que replican rutinariamente desigualdades sociales profundamente arraigadas, incluida la discriminación racial. Solo en el último año, hemos visto tecnologías de reconocimiento facial incapaces de identificar con precisión a personas de color, y bases de datos de ADN familiar desafiadas como discriminatorias para poblaciones con exceso de vigilancia. Los sistemas policiales de inteligencia artificial no serán diferentes. Si entrenas sin pensar a A.I. modelos con insumos racialmente sesgados, los resultados reflejarán la desigualdad social subyacente.
Pero el tema del sesgo racial y la vigilancia predictiva es más complicado de lo que se detalla en el artículo de opinión. Yo deberia saber. Durante varios años, he estado investigando la vigilancia predictiva porque me preocupaba el impacto de estas nuevas tecnologías en la justicia racial. Todavía estoy preocupado, pero creo que debemos tener claro dónde existen las amenazas reales.
Tomemos, por ejemplo, la situación en Oakland, California, descrita en el artículo de opinión. La Sra. Williams escribe elocuentemente:
No es de extrañar que los criminólogos hayan levantado banderas rojas sobre la naturaleza autocumplida del uso de datos históricos de delitos.
Esto golpea cerca de casa. Un estudio de octubre de 2016 realizado por el Grupo de Análisis de Datos de Derechos Humanos concluyó que si el Departamento de Policía de Oakland hubiera utilizado su registro de información de delitos de drogas de 2010 como base de un algoritmo para guiar la vigilancia, el departamento “habría enviado oficiales casi exclusivamente a las áreas de bajos ingresos”. , barrios minoritarios”, a pesar de que las estimaciones basadas en la salud pública sugieren que el consumo de drogas está mucho más generalizado y tiene lugar en muchas otras partes de la ciudad donde vivimos mi familia y yo.
Esos “barrios minoritarios de bajos ingresos” contienen la barbería donde llevo a mi hijo para su corte de cabello mensual y nuestra tienda de bocadillos favorita. ¿Lo dejaría correr delante de mí si supiera que el simple hecho de poner un pie en esas aceras aumentaría las probabilidades de que lo vieran como un criminal ante los ojos de la ley?
Estos son temores honestos.
Si, como sugirió el artículo de opinión, la policía de Oakland utilizó las estadísticas de arrestos por drogas para pronosticar dónde ocurrirían futuros delitos, entonces sus predicciones de delitos serían tan racialmente discriminatorias como la actividad de arresto. En esencia, la predicción del crimen simplemente estaría replicando los patrones de arresto (donde la policía patrulla), no el consumo de drogas (donde la gente consume drogas). Los patrones policiales pueden, por lo tanto, estar influenciados por factores socioeconómicos y raciales, no por la prevalencia subyacente del delito. Este sería un resultado discriminatorio, por lo que es muy afortunado que Oakland no esté haciendo tal cosa. De hecho, el informe del Human Rights Data Analysis Group (HRDAG) que cita la Sra. Williams es un modelo hipotético que examina cómo un sistema policial predictivo podría tener prejuicios raciales. Los investigadores de HRDAG recibieron mucha prensa positiva sobre su estudio porque utilizó un algoritmo de vigilancia predictivo real diseñado por PredPol, una compañía de vigilancia predictiva real. Sin embargo, PredPol no predice delitos de drogas y no utiliza arrestos en su algoritmo, precisamente porque la empresa sabe que los resultados serían racialmente discriminatorios. Oakland tampoco usa PredPol. Por lo tanto, el temor hipotético no es inexacto, pero la sugerencia de que esta es la forma en que se utiliza realmente la vigilancia predictiva en las barberías de Oakland es un poco engañosa.
No malinterprete esto como una minimización de los problemas de justicia racial en Oakland. Como han demostrado la profesora de Stanford Jennifer Eberhardt y otros investigadores, el Departamento de Policía de Oakland tiene un patrón demostrado de discriminación racial que afecta a quién es detenido, arrestado y esposado, y que sugiere problemas sistémicos profundos. Pero vincular los temores reales sobre la vigilancia policial racialmente injusta con los temores hipotéticos sobre las tecnologías predictivas (que no se utilizan como se describe) distorsiona la crítica.
De manera similar, el artículo de opinión destaca a HunchLab como una empresa que utiliza inteligencia artificial para construir sistemas policiales predictivos:
Estas desventajas de A.I. no son ningún secreto. A pesar de esto, las agencias policiales estatales y locales han comenzado a utilizar aplicaciones policiales predictivas impulsadas por A.I. como HunchLab, que combina datos históricos de delitos, fases lunares, ubicación, datos de censos e incluso calendarios de equipos deportivos profesionales para predecir cuándo y dónde ocurrirán los delitos e incluso quién es probable que cometa o sea víctima de ciertos delitos.
El problema con los datos históricos de delitos es que se basan en prácticas policiales que ya se concentran de manera desproporcionada en los negros, latinos y aquellos que viven en áreas de bajos ingresos.
Si la policía ha discriminado en el pasado, la tecnología predictiva refuerza y perpetúa la