Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2128

Incidentes Asociados

Incidente 3108 Reportes
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
El Tribunal de Apelaciones del Reino Unido considera que la tecnología de reconocimiento facial automatizado es ilegal en Bridges v South Wales Police
huntonprivacyblog.com · 2020

El 11 de agosto de 2020, el Tribunal de Apelación de Inglaterra y Gales anuló la desestimación por parte del Tribunal Superior de una impugnación del uso de la tecnología de reconocimiento facial automatizado ("AFR") por parte de la policía de Gales del Sur, al determinar que su uso era ilegal y violaba los derechos humanos.

En septiembre de 2019, el Tribunal Superior del Reino Unido había [desestimado](https://www.huntonprivacyblog.com/2019/09/09/high-court-dismisses-challenge-to-police-use-of-facial-recognition-technology /) la impugnación del uso de AFR, determinando que su uso era necesario y proporcionado para cumplir con las obligaciones legales de la Policía de Gales del Sur. El Sr. Bridges, el activista por las libertades civiles que originalmente inició un proceso de revisión judicial después de que la Policía de Gales del Sur lanzara un proyecto que implicaba el uso de AFR ("AFR Locate"), apeló la desestimación del Tribunal Superior. Con AFR Locate, la policía de Gales del Sur implementó la tecnología AFR en ciertos eventos y en ciertos lugares públicos donde se consideraba probable que ocurriera un delito, e imágenes de hasta 50 rostros por segundo. Posteriormente, la policía cotejó las imágenes capturadas con “listas de observación” de personas buscadas en las bases de datos policiales utilizando análisis de datos biométricos. Cuando no se hizo una coincidencia con ninguna de estas listas de seguimiento, las imágenes se eliminaron de forma inmediata y automática.

El Sr. Bridges desafió a AFR Locate sobre la base de que era ilegalmente intrusivo, incluso en virtud del artículo 8 del Convenio Europeo de Derechos Humanos ("ECHR") (derecho al respeto de la vida privada y familiar) y la ley de protección de datos en el Reino Unido. Su apelación se basó en los siguientes cinco motivos:

  1. El Tribunal Superior se había equivocado al concluir que el uso de AFR por parte de la Policía de Gales del Sur y la interferencia con los derechos del Sr. Bridges estaba de acuerdo con la ley en virtud del Artículo 8(2) del CEDH.
  2. El Tribunal Superior había concluido incorrectamente que el uso de AFR y la interferencia con los derechos del Sr. Bridges eran proporcionados en virtud del artículo 8(2) del CEDH.
  3. El Tribunal Superior se equivocó al considerar que la DPIA realizada en relación con el procesamiento era suficiente a los efectos de la Sección 64 de la DPA 2018.
  4. El Tribunal Superior no debería haberse negado a llegar a una conclusión sobre si la Policía de Gales del Sur tenía un "documento de política apropiado" en vigor con respecto al uso de AFR Locate que estaba dentro del significado de la Sección 42 de la DPA 2018 para llevar a cabo actividades confidenciales. procesamiento de datos.
  5. El Tribunal Superior se equivocó al sostener que la Policía de Gales del Sur había cumplido con el Deber de Igualdad del Sector Público ("PSED") en virtud de la Sección 149 de la Ley de Igualdad de 2010, con el argumento de que la Evaluación de Impacto de Igualdad realizada era "obviamente inadecuada" y no reconoció el riesgo de discriminación indirecta por motivos de sexo o raza.

El Tribunal de Apelación concedió la apelación por los motivos 1, 3 y 5, pero rechazó los motivos 2 y 4.

Planta 1

Por el primer motivo, el Tribunal de Apelación anuló la determinación del Tribunal Superior y encontró “deficiencias fundamentales” en el marco legal en torno al uso de AFR, específicamente las políticas que regían su uso. El Tribunal determinó que las políticas de la Policía de Gales del Sur daban demasiada discreción a los agentes de policía individuales para determinar qué personas se colocaban en las listas de vigilancia y dónde se podía desplegar AFR Locate. La Corte comentó que “las políticas vigentes no establecen suficientemente los términos en que la policía puede ejercer las facultades discrecionales y por ello no tienen la calidad de ley necesaria”. El Tribunal describió además la discrecionalidad como “inadmisiblemente amplia”, por ejemplo, porque el despliegue de la tecnología no se limitaba a áreas en las que podía pensarse con motivos razonables que las personas incluidas en una lista de vigilancia podrían estar presentes. El Tribunal dio a entender que esto debería ser un factor importante para determinar dónde se debe desplegar AFR Locate, afirmando que, “a menudo, tal vez siempre, será el caso que la ubicación se determinará en función de si la policía tiene razones para creer que las personas en el la lista de observación estará en ese lugar”.

Planta 2

Dado que el Tribunal decidió que el uso de AFR Locate no era lícito, no era necesario que el Tribunal decidiera el segundo motivo de recurso sobre la proporcionalidad. Independientemente, la Corte optó por abordar esta cuestión y la rechazó. El Sr. Bridges argumentó que la prueba de equilibrio entre los derechos del individuo y los intereses de la comunidad, que forma parte del análisis de proporcionalidad, no solo debe considerar el impacto en el Sr. Bridges, sino también el impacto en todos los demás individuos cuyos datos biométricos los datos fueron procesados por la tecnología en las ocasiones pertinentes. El Tribunal de Apelaciones no estuvo de acuerdo y comentó que el Sr. Bridges solo había detallado el impacto en sí mismo, no en el público en general, en su demanda original y que el impacto en cada una de las otras personas relevantes fue tan insignificante como el impacto en el Sr. Bridges y no debe considerarse acumulativamente. El Tribunal afirmó: “Un impacto que tiene muy poco peso no puede volverse más pesado simplemente porque otras personas también se vieron afectadas. No es una cuestión de simple multiplicación. El ejercicio de equilibrio que exige el principio de proporcionalidad no es matemático; es un ejercicio que requiere juicio”.

Planta 3

En cuanto al tercer motivo de apelación relacionado con la falta de una DPIA suficiente por parte de la Policía de Gales del Sur, el Sr. Bridges argumentó que la DPIA era defectuosa de tres maneras específicas. En primer lugar, no reconoció que los datos personales de las personas que no figuraban en una lista de vigilancia (cuyos datos, por lo tanto, se eliminaron de forma inmediata y automática) fueron, sin embargo, "procesados" en el sentido de la ley de protección de datos. En segundo lugar, la DPIA tampoco reconoció que los derechos de las personas en virtud del artículo 8 del CEDH estuvieran comprometidos por el procesamiento y, en tercer lugar, guardó silencio en cuanto a otros riesgos que pueden haber surgido por el uso de AFR Locate, como el derecho a libertad de expresión o libertad de reunión.

La Oficina del Comisionado de Información del Reino Unido ("ICO"), un interviniente en el caso, también criticó la DPIA realizada por la Policía de Gales del Sur sobre la base de que no contenía una evaluación de "privacidad, datos personales y salvaguardas", no reconoció que AFR implica la recopilación de datos personales de forma "general e indiscriminada" y el riesgo de resultados falsos positivos puede, de hecho, dar lugar a períodos de retención más prolongados en lugar de que los datos se eliminen de inmediato. Además, la DPIA no abordó los posibles prejuicios raciales y de género que podrían surgir del uso de AFR Locate. Como tal, el ICO declaró que la DPIA no evaluó adecuadamente los riesgos y la mitigación de los mismos como lo requiere la Sección 64 de la DPA 2018.

El Tribunal de Apelación no aceptó todos estos argumentos. Por ejemplo, destacó que la DPIA se había referido específicamente a la relevancia del artículo 8 del CEDH. Sin embargo, basándose en su conclusión de que el despliegue de la tecnología no era legal, el Tribunal consideró que la Policía de Gales del Sur se equivocó al concluir en su DPIA que no se infringió el artículo 8 del CEDH. El Tribunal de Apelación declaró: “La consecuencia inevitable de esas deficiencias es que, a pesar del intento de la DPIA de abordar las cuestiones del artículo 8, la DPIA no evaluó adecuadamente los riesgos para los derechos y libertades de los interesados y no abordó las medidas previstas para abordar los riesgos derivados de las deficiencias que hemos encontrado, según lo exige la sección 64(3)(b) y (c) del DPA 2018.”

Planta 4

Con respecto al requisito de tener un "documento de política apropiado" según la Sección 42 de la DPA 2018, el Sr. Bridges argumentó que la evaluación de la suficiencia del documento no debería haberse remitido a la Policía de Gales del Sur para su consideración a la luz de la orientación. del ICO, pero en cambio, el Alto Tribunal debería haberlo encontrado insuficiente. El Tribunal de Apelación rechazó este argumento sobre la base de que, en el momento del despliegue de AFR Locate, el DPA 2018 aún no estaba en vigor y, por lo tanto, no podría haber habido un incumplimiento de la ley. En relación con el uso futuro de AFR Locate y el requisito de un documento de política apropiado, el Tribunal de Apelación comentó que, "[Un] documento de la sección 42 es un documento en evolución, que, de acuerdo con la sección 42(3), debe ser mantenido bajo revisión y actualizado de vez en cuando.” Dado que la orientación de la ICO no se había emitido sobre la redacción de este tipo de documento en el momento de la audiencia del Tribunal Superior, y dado que la Policía de Gales del Sur había actualizado el documento a la luz de la orientación de la ICO publicada posteriormente, el Tribunal de Apelación concluyó que la El enfoque del Tribunal Superior a este respecto había sido apropiado. También se refirió al hecho de que el ICO había expresado repetidamente la opinión de que la versión original del documento cumplía con los requisitos de la Sección 42, aunque idealmente contendría más detalles.

Planta 5

En el último motivo de apelación sobre el PSED en virtud de la Sección 149 de la Ley de Igualdad de 2010, el Tribunal concluyó que la Policía de Gales del Sur no había reunido pruebas suficientes para establecer si AFR Locate estaba intrínsecamente sesgado antes de su uso por dos razones: (1 ) porque los datos de las personas cuyas imágenes no coincidían con las de las listas de vigilancia se eliminaron automáticamente (y, por lo tanto, no pudieron analizarse con el fin de evaluar el sesgo), y (2) porque la Policía de Gales del Sur no conocía el conjunto de datos en el que AFR Locate había sido entrenado y no pudo establecer si había habido un desequilibrio demográfico en los datos de entrenamiento relevantes. Aunque no se alegó que AFR Locate produjo resultados sesgados, el Tribunal determinó que la Policía de Gales del Sur “nunca trató de asegurarse, ya sea directamente o mediante una verificación independiente, de que el programa de software en este caso no tiene un sesgo inaceptable en motivos de raza o sexo”. El Tribunal agregó: “Esperaríamos que, dado que AFR es una tecnología novedosa y controvertida, todas las fuerzas policiales que tengan la intención de usarla en el futuro deseen asegurarse de que se haya hecho todo lo razonable que se pudo hacer para asegurarse que el software utilizado no tenga prejuicios raciales o de género”.

La policía de Gales del Sur ha declarado que no apelará la decisión. La sentencia completa del Tribunal de Apelación se puede ver aquí.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd