Incidentes Asociados
Natalie Behring/Getty
Los algoritmos se han apoderado de nuestras vidas, lo apreciemos o no.
Cuando Facebook nos ofrece clickbait y teorías de conspiración, es un algoritmo que decide lo que le interesa.
Cuando Uber aumenta los precios en las horas pico, es el algoritmo del servicio el que se activa para maximizar las ganancias.
Cuando los anuncios de zapatos que no puede pagar lo siguen por Internet hasta que se da por vencido, es un algoritmo que sigue su curso.
Los algoritmos también se están haciendo cargo de la vigilancia. En ciudades como Los Ángeles, Atlanta y Filadelfia, los algoritmos de "vigilancia predictiva" analizan los datos de delitos pasados para decirles a los oficiales qué personas y lugares corren mayor riesgo de cometer delitos en el futuro.
El más popular es PredPol, un algoritmo desarrollado por el Departamento de Policía de Los Ángeles en colaboración con universidades locales que recopila datos concretos sobre dónde y cuándo ocurrieron los delitos y luego crea un mapa de "puntos críticos" de dónde es probable que ocurran los próximos delitos.
Pero según un estudio que se publicará a finales de este mes en la revista académica Significance, es posible que PredPol simplemente esté reforzando los malos hábitos policiales. Cuando los investigadores del Grupo de análisis de datos de derechos humanos, una organización sin fines de lucro dedicada a utilizar la ciencia para analizar las violaciones de los derechos humanos en todo el mundo, aplicaron la herramienta a los datos sobre delitos en Oakland, el algoritmo recomendó que la policía desplegara agentes en vecindarios con residentes en su mayoría negros. Da la casualidad de que la policía de Oakland ya estaba enviando oficiales a estas áreas.
“Se supone que estos modelos te dan una idea invisible de dónde se supone que está el crimen”, dijo William Isaac, uno de los coautores del informe, en una entrevista. "Pero son solo cosas de sentido común, y argumentamos que estos conjuntos de software se usan básicamente como una herramienta para validar las decisiones policiales".
Usando una versión disponible públicamente del algoritmo de PredPol, los investigadores Isaac y Kristian Lum usaron datos de arrestos de 2010 de Oakland para predecir dónde ocurrirían los delitos en 2011. Para comparar ese mapa con lo que realmente sucede en Oakland, los investigadores usaron datos del Censo y el Encuesta Nacional de Victimización por Delitos para crear un mapa de calor que muestre dónde fue más frecuente el consumo de drogas en la ciudad en 2011.
Pero según un estudio que se publicará a finales de este mes en la revista académica Significance, es posible que PredPol simplemente esté reforzando los malos hábitos policiales. Cuando los investigadores del Grupo de análisis de datos de derechos humanos, una organización sin fines de lucro dedicada a utilizar la ciencia para analizar las violaciones de los derechos humanos en todo el mundo, aplicaron la herramienta a los datos sobre delitos en Oakland, el algoritmo recomendó que la policía desplegara agentes en vecindarios con residentes en su mayoría negros. Da la casualidad de que la policía de Oakland ya estaba enviando oficiales a estas áreas.
“Se supone que estos modelos te dan una idea invisible de dónde se supone que está el crimen”, dijo William Isaac, uno de los coautores del informe, en una entrevista. "Pero son solo cosas de sentido común, y argumentamos que estos conjuntos de software se usan básicamente como una herramienta para validar las decisiones policiales".
Usando una versión disponible públicamente del algoritmo de PredPol, los investigadores Isaac y Kristian Lum usaron datos de arrestos de 2010 de Oakland para predecir dónde ocurrirían los delitos en 2011. Para comparar ese mapa con lo que realmente sucede en Oakland, los investigadores usaron datos del Censo y el Encuesta Nacional de Victimización por Delitos para crear un mapa de calor que muestre dónde fue más frecuente el consumo de drogas en la ciudad en 2011.
Un estudiante de CU Boulder es arrestado por entrar sin autorización en el campus de la Universidad de Colorado después de que las autoridades intentaran sofocar un gran humo de marihuana en Boulder, Colorado, 20 de abril de 2012 REUTERS/Rick Wilking
En un mundo ideal, los mapas serían similares. Pero, de hecho, PredPol dirigió a la policía a vecindarios negros como West Oakland e International Boulevard en lugar de concentrarse en dónde realmente ocurrieron los delitos relacionados con las drogas. Los vecindarios predominantemente blancos como Rockridge y Piedmont obtuvieron un pase, a pesar de que los blancos usan drogas ilícitas en tasas más altas que las minorías.
Para ver cómo las prácticas policiales reales en Oakland coincidían con las recomendaciones de PredPol, los investigadores también compararon el mapa de PredPol con un mapa de los lugares donde la policía de Oakland arrestó a personas por delitos de drogas. Los mapas eran sorprendentemente similares. Independientemente de dónde ocurra el crimen, los vecindarios predominantemente negros tienen alrededor de 200 veces más arrestos por drogas que otros vecindarios de Oakland. En otras palabras, la policía de Oakland ya está haciendo lo que sugiere el mapa de PredPol: controlar en exceso los vecindarios negros, en lugar de concentrarse en los lugares donde ocurren los delitos relacionados con las drogas.
"Si tuvieras que mirar los datos y ver dónde están encontrando delitos de drogas, no es lo mismo que dónde están realmente los delitos de drogas", dijo Lum en una entrevista. "Los delitos relacionados con las drogas están en todas partes, pero la policía solo los encuentra donde está buscando".
PredPol no respondió a la solicitud de comentarios de Mic.
Para ser claros, actualmente Oakland no usa PredPol; los investigadores simplemente usaron Oakland como un ejemplo de lo que sucede cuando se aplica PredPol a un área metropolitana importante. Docenas de otros