Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2127

Incidentes Asociados

Incidente 3108 Reportes
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
EWCA Civ 1058 – R (Puentes) v. CC Gales del Sur
judiciary.uk · 2020

Sir Terence Etherton MR, Dame Victoria Sharp PQBD y Lord Justice Singh:

Esta apelación se refiere a la legalidad del uso de la tecnología de reconocimiento facial automatizado ("AFR") en vivo por parte de la Fuerza de Policía de Gales del Sur ("SWP") en un juicio en curso que utiliza un sistema llamado AFR Locate. AFR Locate implica el despliegue de cámaras de vigilancia para capturar imágenes digitales de miembros del público, que luego se procesan y comparan con imágenes digitales de personas en una lista de vigilancia compilada por SWP para el propósito del despliegue. En los hechos del presente caso, AFR Locate se ha utilizado de manera abierta. No se desplegó como una forma de vigilancia encubierta. Por esa razón, es de conocimiento común que este caso no plantea cuestiones que de otro modo podrían surgir en virtud de la Ley de Regulación de Facultades de Investigación de 2000.

La apelación es de la orden de fecha 4 de septiembre de 2019 de Haddon-Cave LJ y Swift J en la Divisional Court of the Queen's Bench Division que desestimó el reclamo de revisión judicial del Apelante que impugnaba la legalidad del uso de AFR Locate en dos ocasiones particulares y en un de forma continua. Los motivos de impugnación fueron que AFR no es compatible con el derecho al respeto de la vida privada en virtud del artículo 8 del Convenio Europeo de Derechos Humanos ("el Convenio"), que es uno de los derechos del Convenio establecidos en Sch.1 a la Ley de Derechos Humanos de 1998 ("HRA"); legislación de protección de datos; y el Deber de Igualdad del Sector Público ("PSED") en la sección 149 de la Ley de Igualdad de 2010.

La Divisional Court registró en su sentencia la forma cooperativa y útil en la que el caso se había presentado por todas las partes para determinar la orientación temprana de la corte en cuanto a los parámetros y el marco legal relacionados con AFR mientras aún se encuentra en su fase de juicio. y antes de que se implemente a nivel nacional. Este recurso se ha realizado sobre la misma base.

Conclusión

Por las razones que hemos expuesto, se admitirá este recurso por los motivos 1, 3 y 5. Rechazamos los motivos 2 y 4.

En cuanto al recurso procedente, consideramos que bastará con una medida declaratoria que refleje las razones por las que ha prosperado este recurso. En las circunstancias que se han presentado, las partes acuerdan que el único remedio que se requiere es una declaración pero no han podido acordar los términos precisos de una declaración. Habiendo considerado los argumentos rivales, hemos concluido que la declaración propuesta por SWP refleja con mayor precisión la sentencia de este Tribunal. Otorgaremos una declaración en los siguientes términos:

  1. El uso por parte de la Demandada de la tecnología de reconocimiento facial automatizado en vivo el 21 de diciembre de 2017 y el 27 de marzo de 2018 y de manera continua, que involucró el artículo 8(1) del Convenio Europeo de Derechos Humanos, no fue conforme a la ley a los fines del artículo 8(2).
  2. Como consecuencia de la declaración establecida en el párrafo 1 anterior, con respecto al uso continuo de la tecnología de reconocimiento facial automatizado en vivo por parte del Demandado, su Evaluación de impacto de protección de datos no cumplió con la sección 64(3)(b) y (c) de la Ley de Protección de Datos de 2018.
  3. El demandado no cumplió con el deber de igualdad del sector público en la sección 149 de la Ley de igualdad de 2010 antes o durante el uso de la tecnología de reconocimiento facial automatizado en vivo el 21 de diciembre de 2017 y el 27 de marzo de 2018 y de manera continua.
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd