Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1960

Incidents associés

Incident 3094 Rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Loading...
Zéro arrestation, 2 correspondances correctes, pas de criminels: la technologie de reconnaissance faciale des flics de Londres a été critiquée
theregister.com · 2018

Le kit de reconnaissance faciale des flics de Londres n'a identifié correctement que deux personnes à ce jour – dont aucun n'était des criminels – et la police de la capitale britannique n'a procédé à aucune arrestation en l'utilisant, ont révélé des chiffres publiés aujourd'hui.

Selon les informations publiées en vertu des lois sur la liberté d'information, la technologie de reconnaissance faciale automatisée (AFR) de la police métropolitaine a un taux de faux positifs de 98 %.

Ce chiffre est le plus élevé de ceux donnés par les forces de police britanniques interrogées par le groupe de campagne Big Brother Watch dans le cadre d'un rapport qui exhorte la police à cesser immédiatement d'utiliser la technologie.

Les forces utilisent la reconnaissance faciale de deux manières : la première après coup, en recoupant les images avec les clichés électroniques conservés dans les bases de données nationales ; l'autre consiste à scanner en temps réel les visages des personnes dans une foule pour les comparer à une "liste de surveillance" fraîchement établie pour chaque événement.

Le rapport de Big Brother Watch s'est concentré sur ce dernier, qui, selon lui, enfreint les lois sur les droits de l'homme car il surveille les gens à leur insu et pourrait les dissuader d'assister à des événements publics.

Et, malgré [l'insistance] des flics (https://www.theregister.com/2018/02/05/south_wales_police_facial_recognition_arrests/) que cela fonctionne, le rapport a montré un taux moyen de faux positifs - où le système "identifie" quelqu'un qui n'est pas sur la liste – de 91 pour cent à travers le pays. Cela ne signifie pas que neuf personnes sur dix vues à la caméra sont signalées à tort, mais cela signifie plutôt que 91% des personnes signalées ne figuraient pas sur la liste de surveillance.

Le Met a le pourcentage le plus élevé, à 98 %, avec 35 faux positifs enregistrés en une seule journée, au Notting Hill Carnival 2017 .

Cependant, la Met Police a affirmé que ce chiffre est trompeur car il y a une intervention humaine après que le système a signalé le match.

"Nous ne les considérons pas comme des correspondances faussement positives, car des freins et contrepoids supplémentaires sont en place pour confirmer l'identification suite aux alertes système", a déclaré un porte-parole à The Register.

Le système, cependant, n'a pas non plus eu beaucoup de succès dans les identifications positives: le rapport a montré qu'il n'y avait eu que deux correspondances exactes et qu'aucune des deux personnes n'était un criminel.

La première était à Notting Hill, mais la personne identifiée n'était plus recherchée pour arrestation car les informations utilisées pour générer la liste de surveillance étaient périmées.

La deuxième identification de ce type a eu lieu lors de l'événement du dimanche du Souvenir de l'année dernière, mais il s'agissait d'une personne connue sous le nom d '"individu fixé" - ce sont des personnes connues pour contacter fréquemment des personnalités publiques - mais qui n'était pas un criminel et ne voulait pas être arrêté.

En règle générale, les personnes figurant sur cette liste ont des problèmes de santé mentale, et Big Brother Watch s'est dit préoccupé par le fait que la police a déclaré qu'il n'y avait pas eu de consultation préalable avec des professionnels de la santé mentale au sujet de la correspondance croisée avec les personnes de cette base de données.

Le groupe a décrit cela comme un "exemple effrayant de glissement de fonction" et un exemple de l'effet dangereux que cela pourrait avoir sur les droits des personnes marginalisées.

Il a également soulevé des inquiétudes concernant les préjugés raciaux dans le kit utilisé, critiquant la Met Police pour avoir déclaré qu'elle n'enregistrerait pas les chiffres d'appartenance ethnique pour le nombre d'individus identifiés, que ce soit correctement ou non.

En conséquence, a-t-il déclaré, "tout groupe démographique disproportionné dans cette police de haute technologie restera irresponsable et caché à la vue du public".

Cela est aggravé par le fait que le logiciel commercial utilisé par le Met – ainsi que la police du sud du Pays de Galles (SWP) – n'a pas encore été testé pour les biais de précision démographique.

"Nous avons été extrêmement déçus de rencontrer la résistance de la police en Angleterre et au Pays de Galles à l'idée que de tels tests soient importants ou nécessaires", a déclaré Big Brother Watch dans le rapport.

SWP - qui a utilisé l'AFR dans 18 lieux publics depuis son introduction en mai 2017 - n'a fait que légèrement mieux. Son taux de faux positifs est de 91 % et les matches ont conduit à 15 arrestations, soit 0,005 % des matches.

Par exemple, l'AFR de la force galloise qui a scanné les Britanniques pendant la semaine de l'UEFA Champions League à Cardiff en 2017 a eu de mauvais résultats.

Le SWP a déclaré qu'il fallait s'attendre à des faux positifs pendant le développement de la technologie, mais que la précision s'améliorait, et a ajouté que personne n'avait été arrêté après une fausse correspondance - encore une fois à cause d'une intervention humaine.

"Les agents peuvent rapidement établir si la personne a été correctement ou incorrectement appariée par les méthodes policières traditionnelles, soit en regardant la personne, soit par une brève conversation", a déclaré un porte-parole.

"Si une correspondance incorrecte a été établie, les agents expliqueront à la personne ce qui s'est passé et l'inviteront à voir l'équipement tout en lui fournissant un avis de traitement équitable."

Les préoccupations concernant la mauvaise précision du kit sont sous-jacentes aux plaintes concernant un manque de surveillance claire - une question qui a été soulevée par un certain nombre de militants, [politicians] (https://www.theregister.com/2017/11/17 /put_police_use_facial_recog_on_ice_london_mayor_told/) et des [commissaires] indépendants(https://www.theregister.com/2018/01/08/surveillance_cam_commisioner_calls_for_regulatory_expansion/) dans des domaines connexes.

La ministre du gouvernement Susan Williams – qui a déjà décrit l'utilisation de l'AFR comme une décision « opérationnelle » pour la police – a déclaré plus tôt cette année que le gouvernement devait créer un conseil composé des commissaires à l'information, à la biométrie et aux caméras de surveillance pour superviser la technologie.

De plus amples détails sont attendus dans la stratégie biométrique tant attendue, qui devrait paraître en juin.

Big Brother Watch a également réitéré ses inquiétudes concernant le stockage de masse d'images de garde à vue de personnes innocentes sur la base de données nationale de la police, qui contient plus de 12,5 millions de photos [qui peuvent être numérisées biométriquement] (https://www.theregister.com/ 2017/12/14/ukgov_pushes_back_biometrics_strategy/).

Malgré une décision de la Haute Cour de 2012 selon laquelle il était illégal de conserver des images de personnes présumées innocentes, le gouvernement a déclaré qu'il n'était pas possible d'automatiser la suppression. Cela signifie qu'ils restent sur le système à moins qu'une personne ne demande leur suppression.

En mars, Williams a déclaré que parce que les images ne peuvent être supprimées que manuellement, l'élimination des personnes innocentes "aura des coûts importants et sera difficile à justifier étant donné les réductions compensatoires que les forces seraient obligées de trouver pour le financer ».

Le groupe a eu peu de patience avec cela, déclarant dans le rapport que le gouvernement devrait fournir un financement au personnel administratif pour faire face à ce problème – une personne par force employée pendant une année complète à 35 000 £ représenterait un total de 1,5 million de livres sterling, a-t-il déclaré.

"Les "coûts" ne sont pas une raison acceptable pour le gouvernement britannique de ne pas se conformer à la loi", a-t-il déclaré. Big Brother Watch a déclaré qu'étant donné que le ministère de l'Intérieur avait déboursé 2,6 millions de livres sterling à SWP pour son kit AFR, ils n'étaient également "pas une raison convaincante".

Big Brother Watch lance sa campagne contre l'AFR aujourd'hui au Parlement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd