Incidentes Asociados

La policía de Detroit ha utilizado tecnología de reconocimiento facial altamente poco confiable casi exclusivamente contra personas negras en lo que va de 2020, según las propias estadísticas del Departamento de Policía de Detroit. El uso de la tecnología por parte del departamento ganó atención nacional la semana pasada después de que la Unión Estadounidense de Libertades Civiles y [New York Times](https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html? referingSource=articleShare) sacó a la luz el caso de Robert Julian-Borchak Williams, un hombre que fue arrestado injustamente debido a la tecnología.
En una reunión pública el lunes, el jefe de policía de Detroit, James Craig, admitió que la tecnología, desarrollada por una empresa llamada DataWorks Plus, casi nunca arroja una coincidencia directa y casi siempre identifica erróneamente a las personas.
“Si usáramos el software solo [para identificar sujetos], no resolveríamos el caso el 95-97 por ciento de las veces”, dijo Craig. "Eso es si confiáramos totalmente en el software, lo que estaría en contra de nuestra política actual... Si solo usáramos la tecnología por sí misma, para identificar a alguien, diría que el 96 por ciento de las veces se identificaría erróneamente".
Todd Pastorini, gerente general de DataWorks Plus, le dijo a Motherboard que no mantiene estadísticas sobre la precisión del software en el uso real y no instruye específicamente a las fuerzas del orden público sobre cómo usar el software.
"No hay estadísticas para eso", dijo Pastorini. "El asunto es la calidad de las sondas utilizadas. Soy muy reacio según el último [artículo del New York Times](https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest .html?referringSource=articleShare) Se me citó incorrectamente o se tergiversó un poco según el contexto en el que se usó. Es posible que sepas cómo funciona una pala: la clavas en el suelo para recoger tierra y puedes usarla como arma. Reconocimiento facial ha sido utilizado como arma por los medios hasta cierto punto. Entiendo el comentario del jefe, pero desafortunadamente muchas personas no lo hacen".
Pastorini comparó el software de DataWorks Plus con los sistemas automatizados de identificación de huellas dactilares, donde se devuelven docenas o cientos de posibles coincidencias. "No trae de vuelta a un solo candidato", dijo. "Son cientos. Se ponderan como un sistema de huellas dactilares basado en la sonda [y lo que hay en la base de datos]".
El resultado de esto, según los propios oficiales de policía de Detroit, es que finalmente toman la decisión de interrogar e investigar a las personas en función de lo que devuelve el software y el juicio de un detective. Esto significa que las personas que pueden no haber tenido nada que ver con un delito son finalmente interrogadas e investigadas por la policía. En Detroit, esto significa, casi exclusivamente, gente negra.
En lo que va de año (hasta el 22 de junio), la tecnología se ha utilizado 70 veces, [según datos publicados](https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report% 20on%20Facial%20Recognition%20Usage%20%20061520%20-%20062120.pdf) del Departamento de Policía de Detroit. En 68 de esos casos, la foto introducida en el software era de una persona negra; en dos de los casos, la raza figuraba como 'U', que probablemente significa no identificado (en otros informes de la policía, U significa no identificado); el Departamento de Policía de Detroit no respondió a una solicitud de aclaración. Estas fotos fueron extraídas en gran parte de las redes sociales (31 de 70 casos) o de una cámara de seguridad (18 de 70 casos).
Varias ciudades han prohibido a la policía el uso de software de reconocimiento facial, que tiene problemas de prejuicios raciales bien conocidos (y también muchos problemas de falsos positivos). Detroit, sin embargo, tiene un debate muy público en 2019 sobre el uso del reconocimiento facial y, en cambio, decidió regular su uso en lugar de prohibirlo por completo. A fines del año pasado, la ciudad adoptó una política que prohíbe el uso del reconocimiento facial para "vigilar al público a través de cualquier cámara o dispositivo de video", prohíbe su uso en transmisiones en vivo y videos grabados, y restringe (pero no prohíbe) su uso en protestas De acuerdo con la política, el software debe usarse solo "en una imagen fija de un individuo" y solo puede usarse como parte de una investigación criminal en curso. El software verifica las imágenes en una base de datos estatal de fotos, que incluye imágenes de fichas policiales. Como parte de estas regulaciones, el departamento de policía debe publicar informes semanales sobre el uso de la tecnología, que muestran que se ha utilizado casi exclusivamente en personas negras.
Williams fue arrestado antes de que la política se pusiera en práctica. Craig dijo durante la reunión que los medios que pasó por el sistema de reconocimiento facial de DataWorks eran “un video horrible. Estaba granulada... nunca habría llegado con la nueva política... si no podemos obtener una buena imagen, no vamos a llevársela al detective".
Craig y su colega, el Capitán Aric Tosqui, dijeron que quieren seguir usando el reconocimiento facial porque dicen que puede ser una herramienta para ayudar a los investigadores, incluso si no suele conducir a un arresto. Pero incluso cuando alguien no es arrestado falsamente, su identificación errónea a través del reconocimiento facial a menudo puede llevar a que un investigador lo interrogue, lo que es un inconveniente en el mejor de los casos y una situación potencialmente mortal en el peor. Según Tosqui, la tecnología se ha utilizado en un total de 185 casos a lo largo de los años. “En la mayoría de los casos, el detective informó que [el partido] no fue útil”.
A pesar de estos problemas, DataWorks Plus dijo que no guía a las fuerzas del orden público sobre cómo utilizar mejor el software. "No les decimos a nuestros clientes cómo usar el sistema", dijo Pastorini. "Ya existen políticas de aplicación de la ley. Según mi experiencia, cuanto más clara sea la imagen, claramente afectará la probabilidad de un resultado más sólido".
El Departamento de Policía de Detroit no respondió a una solicitud de más comentarios. En los últimos meses, ha habido un nuevo movimiento [por parte de los miembros del consejo de la ciudad para prohibir el uso de la tecnología] (https://detroitmi.gov/sites/detroitmi.localhost/files/2020-05/Approved%20Minutes%20- %20May%207%2C%202020.pdf).