Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6742

Incidents associés

Incident 13052 Rapports
UK Facial Recognition System Reportedly Exhibits Higher False Positive Rates for Black and Asian Subjects

Loading...
Les caméras de reconnaissance faciale « sont plus susceptibles de signaler à tort les personnes noires et asiatiques ».
telegraph.co.uk · 2025

Selon des tests, la technologie de reconnaissance faciale a tendance à identifier à tort les personnes noires et asiatiques comme suspects potentiels.

Une enquête menée par le ministère de l'Intérieur britannique sur le fonctionnement de cette technologie lors de ses recherches dans la base de données nationale de la police a révélé qu'elle était « plus susceptible d'inclure à tort certains groupes démographiques dans ses résultats ».

Le Parti travailliste prépare actuellement le déploiement à l'échelle nationale de caméras de reconnaissance faciale en temps réel et l'extension de leur utilisation à l'analyse des bases de données gouvernementales, notamment les passeports et les dossiers d'immigration, afin d'identifier les suspects.

Sarah Jones, ministre de la Police, a qualifié cette technologie de plus grande avancée depuis l'avènement des tests ADN.

Des inquiétudes persistent quant au risque de faux positifs parmi les minorités ethniques.

Le ministère de l'Intérieur a toutefois indiqué avoir testé et acquis un nouvel algorithme, exempt de biais statistiquement significatif, suite à la publication des résultats du Laboratoire national de physique (NPL).

« Biais intégré préoccupant »

Des analystes ayant examiné l'outil de reconnaissance faciale rétrospective de la base de données nationale de la police, avec des paramètres moins stricts, ont constaté que « le taux de faux positifs (TFP) pour les personnes blanches (0,04 %) est inférieur à celui des personnes asiatiques (4 %) et des personnes noires (5,5 %) ».

Les tests ont également révélé que le nombre de faux positifs pour les femmes noires était particulièrement élevé. « Le TFP pour les hommes noirs (0,4 %) est inférieur à celui des femmes noires (9,9 %) », indique le rapport.

Les commissaires de police et de la criminalité ont déclaré que la publication des conclusions du NPL « met en lumière un biais intégré préoccupant » et ont appelé à la prudence quant aux projets d'extension nationale.

L'Association des commissaires de police et de la criminalité a déclaré que ce biais « a pour conséquence que, dans certaines circonstances, le système est plus susceptible d'identifier incorrectement les personnes noires et asiatiques que les personnes blanches ».

Le rapport ajoute : « Le langage est technique, mais derrière les détails, il apparaît clairement que la technologie a été déployée dans les opérations de police sans garanties suffisantes. »

Les autorités affirment que cette technologie est nécessaire pour appréhender les criminels dangereux. Elles précisent qu'il existe des garanties manuelles – intégrées à la formation, aux pratiques opérationnelles et aux directives de la police – exigeant que toutes les correspondances potentielles issues de la base de données nationale de la police soient évaluées visuellement par un utilisateur formé et un enquêteur.

« Nous avons déjà pris des mesures »


Un porte-parole du ministère de l'Intérieur a déclaré : « Le ministère de l'Intérieur prend les conclusions du rapport très au sérieux et nous avons déjà pris des mesures. Un nouvel algorithme, exempt de biais statistiquement significatif, a été testé et acquis de manière indépendante. Il sera testé début 2024 et fera l'objet d'une évaluation.

Compte tenu de l'importance de cette question, nous avons également demandé à l'inspection générale de la police, ainsi qu'à l'organisme de réglementation des sciences forensiques, d'examiner l'utilisation de la reconnaissance faciale par les forces de l'ordre. » Ils évalueront l'efficacité des mesures d'atténuation, soutenues par le Conseil national des chefs de police.

Le rapport annuel de la police métropolitaine a révélé que sur 3,1 millions d'images, 10 fausses alertes ont été constatées, la personne identifiée ayant été mal reconnue. Huit de ces personnes étaient noires ou issues de minorités ethniques, ce qui pourrait révéler des traces persistantes de biais raciaux dans la technologie utilisée.

Cependant, dans quatre de ces dix cas, les agents ont classé l'affaire sans suite avant même d'avoir pu interagir avec la personne. Dans les six autres cas, la personne a été approchée par la police et interrogée pendant moins de cinq minutes avant qu'aucune autre mesure ne soit prise. La police métropolitaine souligne que cela représente un taux d'erreur de seulement 0,0003 %, soit une erreur sur 300 000.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd