Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2269

Incidentes Asociados

Incidente 3108 Reportes
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
El uso del reconocimiento facial por parte de la policía del Reino Unido no cumple con los "estándares legales y éticos"
pcmag.com · 2022

El uso de la tecnología de reconocimiento facial en vivo por parte de la policía del Reino Unido no cumple con los "estándares éticos y legales mínimos" y debería prohibirse su aplicación en espacios públicos, dicen investigadores de la Universidad de Cambridge.

Un equipo de investigadores del Centro Mindoo para la Tecnología y la Democracia(Se abre en una ventana nueva) analizó tres instancias separadas de la tecnología de reconocimiento facial (FRT) utilizada por dos policías fuerzas: la Policía de Gales del Sur y el Servicio de Policía Metropolitana (MPS). En todos los casos, se descubrió que FRT violaba potencialmente los derechos humanos.

Los investigadores crearon una herramienta de auditoría para verificar las implementaciones de FRT con las pautas legales actuales, incluidas las leyes de igualdad y protección de datos del Reino Unido, así como los resultados de los casos judiciales del Reino Unido.

Aplicaron sus estándares éticos y legales a tres usos de FRT por parte de la policía del Reino Unido. En dos casos, el MPS y la Policía de Gales del Sur utilizaron la tecnología para escanear multitudes y comparar rostros con los de una base de datos criminal y una "lista de vigilancia". En el tercer caso, los oficiales de la Policía de Gales del Sur usaron aplicaciones de teléfonos inteligentes FRT para escanear multitudes. e identificar a las personas "buscadas" en tiempo real.

En los tres casos, se encontró que había falta de transparencia, rendición de cuentas y supervisión en el uso de FRT.

El estudio encontró que la información importante sobre el uso policial de FRT se "oculta", como los datos demográficos publicados sobre arrestos u otros resultados, lo que según los investigadores dificulta evaluar si las herramientas "perpetúan la elaboración de perfiles raciales". El informe también encontró la policía no había publicado auditorías internas para establecer si su tecnología estaba sesgada.

Además de la falta de transparencia, los investigadores encontraron que había muy poca rendición de cuentas por parte de la policía, sin un recurso claro para las personas o comunidades afectadas negativamente por el uso o mal uso de la tecnología por parte de la policía. “Las fuerzas policiales no son necesariamente responsables de los daños causados por la tecnología de reconocimiento facial”, dijo Evani Radiya-Dixit, autora principal del informe.

“Hay una falta de mecanismos sólidos de reparación para las personas y las comunidades perjudicadas por los despliegues policiales de la tecnología. Para proteger los derechos humanos y mejorar la rendición de cuentas sobre cómo se usa la tecnología, debemos preguntarnos qué valores queremos incorporar en la tecnología", dijo Radiya-Dixit.

La profesora Gina Neff, directora ejecutiva del Minderoo Center for Technology and Democracy, dijo: “Durante los últimos años, las fuerzas policiales de todo el mundo, incluso en Inglaterra y Gales, han implementado tecnologías de reconocimiento facial. Nuestro objetivo fue evaluar si estas implementaciones utilizaron prácticas conocidas para el uso seguro y ético de estas tecnologías.

“La creación de un sistema de auditoría único nos permitió examinar los problemas de privacidad, igualdad, responsabilidad y supervisión que deberían acompañar cualquier uso de tales tecnologías por parte de la policía”, dijo Neff.

Los investigadores se unieron a expertos de la UE y del Alto Comisionado de las Naciones Unidas para los Derechos Humanos para pedir la [prohibición(Se abre en una ventana nueva)](https://www.dailydot.com/debug/un-calls-facial-recognition- ai-moratotium/) de FRT en espacios públicos.

La policía del Reino Unido ha estado probando el uso de FRT durante años en múltiples situaciones para combatir el crimen y el terrorismo. Su primer uso documentado en el Reino Unido fue en 2015 por parte de la policía de Leicestershire en asistentes al festival. Desde entonces, la policía de Gales del Sur y la policía metropolitana lo han utilizado prolíficamente para escanear cientos de miles de rostros en [protestas] (https://www.pcmag.com/how-to/how-to-lock-down-your-phone -para una protesta), eventos deportivos, conciertos, el Carnaval de Notting Hill, estaciones de tren y concurridas calles comerciales.

Existe una preocupación mundial con respecto al uso de FRT por parte de las fuerzas policiales. Se descubrió que la misma tecnología utilizada por la Policía Metropolitana tenía hombres negros identificados erróneamente. En 2020, Amnistía Internacional [encabezó un llamamiento(Se abre en una ventana nueva)](https://www.amnesty.org/en/latest/research/2020/06/amnesty-international-calls-for-ban-on- the-use-of-facial-recognition-technology-for-mass-surveillance/) para prohibir el uso de FRT por parte de las fuerzas policiales, ya que podría "exacerbar las violaciones de los derechos humanos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd