Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2269

Incidents associés

Incident 3108 Rapports
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
L'utilisation de la reconnaissance faciale par la police britannique ne respecte pas les «normes juridiques et éthiques»
pcmag.com · 2022

L'utilisation de la technologie de reconnaissance faciale en direct par la police britannique ne respecte pas les "normes éthiques et juridiques minimales" et devrait être interdite d'application dans les espaces publics, selon des chercheurs de l'Université de Cambridge.

Une équipe de chercheurs du Minderoo Center for Technology and Democracy(Opens in a new window) a analysé trois cas distincts de technologie de reconnaissance faciale (FRT) utilisée par deux policiers forces - police du sud du Pays de Galles et service de police métropolitain (MPS). Dans tous les cas, il a été constaté que le FRT enfreignait potentiellement les droits de l'homme.

Les chercheurs ont créé un outil d'audit pour vérifier les déploiements de FRT par rapport aux directives légales en vigueur, y compris les lois britanniques sur la protection des données et l'égalité, ainsi qu'aux résultats des affaires judiciaires britanniques.

Ils ont appliqué leurs normes éthiques et juridiques à trois utilisations du FRT par la police britannique. Dans deux cas, la technologie a été utilisée par le MPS et la police du sud du Pays de Galles pour scanner les foules et comparer les visages à ceux d'une base de données criminelle et d'une "liste de surveillance". Dans le troisième cas, des agents de la police du sud du Pays de Galles ont utilisé des applications pour smartphone FRT pour scanner les foules. et identifier les personnes « recherchées » en temps réel.

Dans les trois cas, il s'est avéré qu'il y avait un manque de transparence, de responsabilité et de surveillance dans l'utilisation du FRT.

L'étude a révélé que des informations importantes sur l'utilisation de la FRT par la police sont "cachées", telles que les données démographiques publiées sur les arrestations ou d'autres résultats, ce qui, selon les chercheurs, rend difficile d'évaluer si les outils "perpétuent le profilage racial". la police n'avait pas publié d'audits internes pour établir si leur technologie était biaisée.

En plus du manque de transparence, les chercheurs ont constaté qu'il y avait très peu de responsabilité pour la police, sans aucun recours clair pour les personnes ou les communautés affectées négativement par l'utilisation ou l'utilisation abusive de la technologie par la police. "Les forces de police ne sont pas nécessairement tenues pour responsables des dommages causés par la technologie de reconnaissance faciale", a déclaré Evani Radiya-Dixit, l'auteur principal du rapport.

« Il y a un manque de mécanismes de recours solides pour les individus et les communautés lésés par les déploiements de la technologie par la police. Pour protéger les droits de l'homme et améliorer la responsabilité dans l'utilisation de la technologie, nous devons nous demander quelles valeurs nous voulons intégrer à la technologie », a déclaré Radiya-Dixit.

Le professeur Gina Neff, directrice exécutive du Minderoo Center for Technology and Democracy, a déclaré : « Au cours des dernières années, les forces de police du monde entier, y compris en Angleterre et au Pays de Galles, ont déployé des technologies de reconnaissance faciale. Notre objectif était d'évaluer si ces déploiements utilisaient des pratiques connues pour l'utilisation sûre et éthique de ces technologies.

"La construction d'un système d'audit unique nous a permis d'examiner les questions de confidentialité, d'égalité, de responsabilité et de surveillance qui devraient accompagner toute utilisation de ces technologies par la police", a déclaré Neff.

Les chercheurs se sont joints à des experts de l'UE et du Haut-Commissariat des Nations Unies aux droits de l'homme pour appeler à l'[interdiction(s'ouvre dans une nouvelle fenêtre)](https://www.dailydot.com/debug/un-calls-facial-recognition- ai-moratotium/) de FRT dans les espaces publics.

La police britannique teste l'utilisation du FRT depuis des années dans de multiples situations pour lutter contre le crime et le terrorisme. Sa première utilisation documentée au Royaume-Uni remonte à 2015 par la police du Leicestershire sur les festivaliers. Il a depuis été utilisé de manière prolifique par la police du sud du Pays de Galles et la police métropolitaine pour scanner des centaines de milliers de visages lors de [protests] (https://www.pcmag.com/how-to/how-to-lock-down-your-phone -pour-une-manifestation), événements sportifs, concerts, carnaval de Notting Hill, gares et rues commerçantes animées.

Il y a une préoccupation mondiale concernant l'utilisation du FRT par les forces de police. La même technologie utilisée par la police métropolitaine s'est avérée avoir [mal identifié des hommes noirs] (https://www.pcmag.com/news/facial-recognition-leads-detroit-police-to-arrest-the-wrong-man ). En 2020, Amnesty International [a lancé un appel(Opens in a new window)](https://www.amnesty.org/en/latest/research/2020/06/amnesty-international-calls-for-ban-on- l'utilisation-de-la-technologie-de-reconnaissance-faciale-pour-la-surveillance-de-masse/) pour interdire l'utilisation du FRT par les forces de police, car cela pourrait « exacerber les violations des droits de l'homme ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd