Incidentes Asociados
El kit de reconocimiento facial de la policía de Londres solo ha identificado correctamente a dos personas hasta la fecha, ninguna de las cuales era delincuente, y la fuerza policial de la capital del Reino Unido no ha realizado arrestos usándolo, según revelan las cifras publicadas hoy.
Según la información publicada en virtud de las leyes de libertad de información, la tecnología de reconocimiento facial automatizado (AFR) de la Policía Metropolitana tiene una tasa de falsos positivos del 98 por ciento.
Esa cifra es la más alta de las proporcionadas por las fuerzas policiales del Reino Unido encuestadas por el grupo de campaña Big Brother Watch como parte de [un informe] (https://bigbrotherwatch.org.uk/all-campaigns/face-off-campaign/) que insta a la policía a que deje de usar la tecnología de inmediato.
Las fuerzas utilizan el reconocimiento facial de dos maneras: una después del hecho, mientras se verifican las imágenes con las fotografías policiales que se encuentran en las bases de datos nacionales; el otro consiste en escanear en tiempo real los rostros de las personas en una multitud para compararlos con una "lista de vigilancia" que se elabora recientemente para cada evento.
El informe de Big Brother Watch se centró en este último, que, según dijo, viola las leyes de derechos humanos, ya que vigila a las personas sin su conocimiento y podría disuadirlas de asistir a eventos públicos.
Y, a pesar de la insistencia de la policía de que funciona, el informe mostró una tasa promedio de falsos positivos, donde el sistema "identifica" a alguien que no está en la lista – del 91 por ciento en todo el país. Eso no significa que nueve de cada diez personas que se ven en la cámara estén mal marcadas, sino que el 91 por ciento de las personas marcadas resultaron no estar en la lista de vigilancia.
El Met tiene el porcentaje más alto, 98 por ciento, con 35 falsos positivos registrados en un solo día, en el [Carnaval de Notting Hill 2017] (https://www.theregister.com/2017/08/17/concerns_over_facial_recognition_at_notting_hill_carnival/) .
Sin embargo, Met Police afirmó que esta cifra es engañosa porque hay una intervención humana después de que el sistema marca el partido.
"No los consideramos como coincidencias de falsos positivos porque existen verificaciones y balances adicionales para confirmar la identificación después de las alertas del sistema", dijo un portavoz a The Register.
Sin embargo, el sistema tampoco ha tenido mucho éxito en las identificaciones positivas: el informe mostró que solo hubo dos coincidencias precisas, y ninguna de las personas era un delincuente.
El primero fue en Notting Hill, pero ya no se buscaba arrestar a la persona identificada porque la información utilizada para generar la lista de vigilancia estaba desactualizada.
La segunda identificación de este tipo tuvo lugar durante el evento del Domingo del Recuerdo del año pasado, pero se trataba de alguien conocido como "individuo obsesionado" (estas son personas que se sabe que contactan con frecuencia a figuras públicas), pero que no era un delincuente y no buscado para ser arrestado.
Por lo general, las personas en esta lista tienen problemas de salud mental, y Big Brother Watch expresó su preocupación porque la policía dijo que no se había realizado una consulta previa con profesionales de la salud mental sobre la comparación cruzada con las personas en esta base de datos.
El grupo describió esto como un "ejemplo escalofriante de deterioro funcional" y un ejemplo del efecto peligroso que podría tener sobre los derechos de las personas marginadas.
También planteó preocupaciones sobre el sesgo racial en el kit utilizado, criticando a la Policía Metropolitana por decir que no registraría las cifras étnicas para la cantidad de personas identificadas, ya sea correctamente o no.
Como resultado, dijo, "cualquier grupo demográfico que participe desproporcionadamente en esta vigilancia de alta tecnología seguirá sin rendir cuentas y oculto a la vista del público".
Esto se ve agravado por el hecho de que el software comercial utilizado por el Met, y también por la Policía de Gales del Sur (SWP), aún no se ha probado para detectar sesgos de precisión demográfica.
“Nos ha decepcionado mucho encontrar resistencia por parte de la policía en Inglaterra y Gales a la idea de que tales pruebas son importantes o necesarias”, dijo Big Brother Watch en el informe.
A SWP, que ha utilizado AFR en 18 lugares públicos desde que se introdujo por primera vez en mayo de 2017, le ha ido solo un poco mejor. Su tasa de falsos positivos es del 91 por ciento, y los partidos dieron lugar a 15 arrestos, lo que equivale al 0,005 por ciento de los partidos.
Por ejemplo, el AFR de la fuerza galesa que escaneó a los británicos durante la semana de la UEFA Champions League en Cardiff en 2017 [tuvo malos resultados] (https://www.theregister.com/2018/05/12/ai_roundup/).
El SWP dijo que se esperaban falsos positivos mientras se desarrolla la tecnología, pero que la precisión estaba mejorando, y agregó que nadie había sido arrestado después de una coincidencia falsa, nuevamente debido a la intervención humana.
“Los oficiales pueden establecer rápidamente si la persona ha sido emparejada correcta o incorrectamente con los métodos policiales tradicionales, ya sea mirándola o a través de una breve conversación”, dijo un portavoz.
"Si se ha hecho una coincidencia incorrecta, los oficiales le explicarán al individuo lo que sucedió y lo invitarán a ver el equipo y le proporcionarán un Aviso de procesamiento justo".
Detrás de las preocupaciones sobre la poca precisión del kit se encuentran las quejas sobre la falta de una supervisión clara, un problema que han planteado varios activistas, [políticos] (https://www.theregister.com/2017/11/17 /put_police_use_facial_recog_on_ice_london_mayor_told/) y [comisionados] independientes (https://www.theregister.com/2018/01/08/surveillance_cam_commisioner_calls_for_regulatory_expansion/) en áreas relacionadas.
La ministra de gobierno, Susan Williams, quien una vez describió el uso de AFR como una decisión "operativa" para la policía, dijo a principios de este año que el gobierno creará una junta compuesta por los comisionados de información, biometría y cámaras de vigilancia para supervisar la tecnología.
Se esperan más detalles en la tan esperada estrategia biométrica, que está programada para aparecer en junio.
Big Brother Watch también reiteró su preocupación por el almacenamiento masivo de imágenes de custodia de personas inocentes en la base de datos nacional de la policía, que tiene más de 12,5 millones de fotos [que se pueden escanear biométricamente] (https://www.theregister.com/ 2017/12/14/ukgov_pushes_back_biometrics_strategy/).
A pesar de un fallo del Tribunal Superior de 2012 que decía que mantener imágenes de presuntas personas inocentes en el archivo era ilegal, el gobierno ha dicho que no es posible automatizar la eliminación. Esto significa que permanecen en el sistema a menos que una persona solicite que se eliminen.
En marzo, Williams [dijo que debido a que las imágenes solo se pueden eliminar manualmente] (https://www.theregister.com/2018/04/19/cutting_custody_snaps_too_costly_for_cops_says_ukgov/), eliminar a personas inocentes "tendrá costos significativos y será difícil de justificar dadas las reducciones compensatorias, sería necesario encontrar fuerzas para financiarlo".
El grupo tuvo poca paciencia con esto, afirmando en el informe que el gobierno debería proporcionar fondos para el personal administrativo para hacer frente a este problema: una persona por fuerza empleada durante un año completo a 35.000 libras esterlinas sería un total de 1,5 millones de libras esterlinas, dijo.
"Los 'costos' no son una razón aceptable para que el gobierno británico no cumpla con la ley", dijo. Big Brother Watch dijo que dado que el Ministerio del Interior había desembolsado £ 2,6 millones a SWP por su kit AFR, tampoco eran "una razón convincente".
Big Brother Watch está lanzando su campaña contra AFR hoy en el Parlamento.