Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6742

Incidentes Asociados

Incidente 13052 Reportes
UK Facial Recognition System Reportedly Exhibits Higher False Positive Rates for Black and Asian Subjects

Loading...
Las cámaras de reconocimiento facial son más propensas a identificar erróneamente a personas negras y asiáticas
telegraph.co.uk · 2025

Según pruebas, la tecnología de reconocimiento facial [(https://www.telegraph.co.uk/politics/2025/12/04/live-facial-recognition-cameras-planned-for-every-town-cent/) ha mostrado mayor probabilidad de identificar incorrectamente a personas negras y asiáticas como posibles sospechosas.

Una investigación sobre el funcionamiento de esta tecnología al buscar en la base de datos nacional de la policía reveló que era "más probable que incluyera incorrectamente algunos grupos demográficos en sus resultados de búsqueda", según ha revelado el Ministerio del Interior.

El Partido Laborista está preparando la implementación a nivel nacional de cámaras de reconocimiento facial en vivo [(https://www.telegraph.co.uk/politics/2025/12/04/face-recognition-cameras-interfere-human-rights-home-office/)] y la expansión de su uso para escanear bases de datos gubernamentales, incluyendo pasaportes y registros de inmigración, en busca de sospechosos de delitos.

Sarah Jones, ministra de policía, ha descrito la tecnología como el mayor avance desde la comparación de ADN.

Ha habido una preocupación persistente sobre la posibilidad de falsos positivos entre las minorías étnicas.

Sin embargo, el Ministerio del Interior afirmó que, desde que se publicaron los hallazgos del Laboratorio Nacional de Física (NPL), había probado y adquirido un nuevo algoritmo sin sesgo estadísticamente significativo.

Preocupante sesgo intrínseco

Los analistas que examinaron la herramienta tecnológica de reconocimiento facial retrospectivo de la base de datos nacional de la policía en un entorno más bajo descubrieron que «la tasa de identificación de falsos positivos (FPIR) para sujetos blancos (0,04 %) es menor que la de sujetos asiáticos (4 %) y negros (5,5 %)».

Las pruebas posteriores revelaron que el número de falsos positivos para mujeres negras era particularmente alto. «La FPIR para sujetos negros masculinos (0,4 %) es menor que la de sujetos negros femeninos (9,9 %)», según el informe.

Los comisionados de policía y delincuencia afirmaron que la publicación de los hallazgos de la NPL «pone de manifiesto un preocupante sesgo intrínseco» e instaron a la cautela con respecto a los planes de expansión nacional.

La Asociación de Comisionados de Policía y delincuencia afirmó que el sesgo «ha significado que, en algunas circunstancias, es más probable que se empareje incorrectamente a personas negras y asiáticas que a sus homólogos blancos».

Añadió: "El lenguaje es técnico, pero tras los detalles parece evidente que la tecnología se ha implementado en la policía operativa sin las garantías adecuadas".

Las autoridades afirman que la tecnología es necesaria para ayudar a detectar a los infractores graves. Afirman que existen garantías manuales —incorporadas en la formación policial, las prácticas operativas y las directrices— que exigen que todas las posibles coincidencias obtenidas de la base de datos nacional de la policía sean evaluadas visualmente por un usuario capacitado y un agente investigador.

"Ya hemos tomado medidas".

Un portavoz del Ministerio del Interior declaró: "El Ministerio del Interior se toma muy en serio las conclusiones del informe y ya hemos tomado medidas. Se ha probado y adquirido de forma independiente un nuevo algoritmo, que no presenta sesgo estadísticamente significativo. Se probará a principios del próximo año y será objeto de evaluación.

"Dada la importancia de este asunto, también hemos solicitado a la inspección de policía, junto con el organismo regulador de la ciencia forense, que revise el uso del reconocimiento facial por parte de las fuerzas del orden". Evaluarán la eficacia de las medidas de mitigación, que el Consejo Nacional de Jefes de Policía apoya.

El informe anual de la Policía Metropolitana mostró que, de los 3,1 millones de imágenes, hubo 10 alertas falsas en las que la persona identificada resultó ser la persona equivocada. Ocho eran personas negras o de minorías étnicas, lo que podría reflejar evidencia persistente de sesgo racial en la tecnología.

Sin embargo, en cuatro de esos 10 casos, los agentes las descartaron antes de que la persona fuera contactada. En los otros seis casos, la policía se acercó a la persona y habló con ella durante menos de cinco minutos antes de que no se tomaran medidas adicionales. La Policía Metropolitana señala que esta tasa de error es de tan solo el 0,0003 %, o una entre 300.000.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd