Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2128

Incidents associés

Incident 3108 Rapports
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
La Cour d'appel du Royaume-Uni déclare illégale la technologie de reconnaissance faciale automatisée dans l'affaire Bridges v South Wales Police
huntonprivacyblog.com · 2020

Le 11 août 2020, la Cour d'appel d'Angleterre et du Pays de Galles a annulé le rejet par la Haute Cour d'une contestation de l'utilisation par la police du sud du Pays de Galles de la technologie de reconnaissance faciale automatisée ("AFR"), concluant que son utilisation était illégale et violait les droits de l'homme.

En septembre 2019, la Haute Cour du Royaume-Uni avait [rejeté](https://www.huntonprivacyblog.com/2019/09/09/high-court-dismisses-challenge-to-police-use-of-facial-recognition-technology /) la contestation de l'utilisation de l'AFR, déterminant que son utilisation était nécessaire et proportionnée pour remplir les obligations légales de la police du sud du Pays de Galles. M. Bridges, le militant des libertés civiles qui a initialement engagé une procédure de contrôle judiciaire après que la police du sud du Pays de Galles a lancé un projet impliquant l'utilisation de l'AFR ("AFR Locate") a fait appel du rejet de la Haute Cour. Avec AFR Locate, la police du sud du Pays de Galles a déployé la technologie AFR lors de certains événements et dans certains lieux publics où un crime était considéré comme susceptible de se produire, et des images jusqu'à 50 visages par seconde. La police a ensuite comparé les images capturées avec des «listes de surveillance» de personnes recherchées dans les bases de données de la police en utilisant l'analyse des données biométriques. Lorsqu'aucune correspondance n'était établie avec l'une de ces listes de surveillance, les images étaient immédiatement et automatiquement supprimées.

M. Bridges a contesté AFR Locate au motif qu'il était illégalement intrusif, notamment en vertu de l'article 8 de la Convention européenne des droits de l'homme (« CEDH ») (droit au respect de la vie privée et familiale) et de la loi sur la protection des données au Royaume-Uni. Son appel était fondé sur les cinq motifs suivants :

  1. La Haute Cour avait commis une erreur en concluant que l'utilisation de l'AFR par la police du sud du Pays de Galles et l'ingérence dans les droits de M. Bridges étaient conformes à la loi en vertu de l'article 8, paragraphe 2, de la CEDH.
  2. La Haute Cour avait conclu à tort que l'utilisation de l'AFR et l'ingérence dans les droits de M. Bridges étaient proportionnées au regard de l'article 8, paragraphe 2, de la CEDH.
  3. La Haute Cour a eu tort de considérer que la DPIA effectuée en relation avec le traitement était suffisante aux fins de l'article 64 de la DPA 2018.
  4. La Haute Cour n'aurait pas dû refuser de tirer une conclusion quant à savoir si la police du sud du Pays de Galles avait mis en place un "document de politique approprié" concernant l'utilisation d'AFR Locate qui était au sens de l'article 42 de la DPA 2018 pour la réalisation d'activités sensibles. traitement de l'information.
  5. La Haute Cour a eu tort de conclure que la police du Pays de Galles du Sud s'était conformée à l'obligation d'égalité dans le secteur public (« PSED ») en vertu de l'article 149 de la loi de 2010 sur l'égalité, au motif que l'évaluation de l'impact sur l'égalité effectuée était « manifestement inadéquate » et n'a pas reconnu le risque de discrimination indirecte fondée sur le sexe ou la race.

La Cour d'appel a accueilli l'appel pour les motifs 1, 3 et 5, mais a rejeté les motifs 2 et 4.

Sol 1

Pour le premier motif, la Cour d'appel a infirmé la décision de la Haute Cour, constatant des "lacunes fondamentales" dans le cadre juridique entourant l'utilisation de l'AFR, en particulier les politiques qui régissaient son utilisation. La Cour a conclu que les politiques de la police du sud du Pays de Galles laissaient trop de latitude aux policiers pour déterminer quelles personnes étaient placées sur des listes de surveillance et où AFR Locate pouvait être déployé. La Cour a fait remarquer que « les politiques actuelles ne définissent pas suffisamment les conditions dans lesquelles les pouvoirs discrétionnaires peuvent être exercés par la police et, pour cette raison, n'ont pas la qualité de droit nécessaire ». La Cour a en outre décrit le pouvoir discrétionnaire comme "inadmissiblement large", par exemple parce que le déploiement de la technologie n'était pas limité aux zones dans lesquelles on pouvait raisonnablement penser que des personnes figurant sur une liste de surveillance pouvaient être présentes. La Cour a laissé entendre que cela devrait être un facteur important pour déterminer l'endroit où AFR Locate devrait être déployé, déclarant qu'« il sera souvent, peut-être toujours, le cas que l'emplacement sera déterminé par la question de savoir si la police a des raisons de croire que les gens sur le la liste de surveillance va être à cet endroit.

Terrain 2

Étant donné que la Cour a décidé que l'utilisation d'AFR Locate n'était pas licite, il n'était pas nécessaire pour la Cour de statuer sur le deuxième moyen d'appel relatif à la proportionnalité. Quoi qu'il en soit, la Cour a choisi d'aborder cette question et l'a rejetée. M. Bridges a fait valoir que le test de mise en balance entre les droits de l'individu et les intérêts de la communauté, qui fait partie de l'analyse de la proportionnalité, devrait non seulement tenir compte de l'impact sur M. Bridges, mais aussi de l'impact sur tous les autres individus dont les données biométriques les données ont été traitées par la technologie aux occasions pertinentes. La Cour d'appel n'était pas d'accord, faisant remarquer que M. Bridges n'avait détaillé l'impact que sur lui-même, et non sur le grand public, dans sa plainte initiale et que l'impact sur chacune des autres personnes concernées était aussi négligeable que l'impact sur M. Bridges et ne doivent pas être considérés de manière cumulative. La Cour a déclaré : « Un impact qui a très peu de poids ne peut pas devenir plus lourd simplement parce que d'autres personnes ont également été touchées. Il ne s'agit pas d'une simple multiplication. L'exercice d'équilibrage qu'exige le principe de proportionnalité n'est pas mathématique; c'est un exercice qui demande du jugement.

Terrain 3

Concernant le troisième motif d'appel relatif au manquement de la police du sud du Pays de Galles à effectuer une DPIA suffisante, M. Bridges a fait valoir que la DPIA était défectueuse de trois manières spécifiques. Premièrement, elle n'a pas reconnu que les données personnelles des personnes non présentes sur une liste de surveillance (dont les données ont donc été immédiatement et automatiquement supprimées) étaient néanmoins « traitées » au sens de la loi sur la protection des données. Deuxièmement, la DPIA n'a pas non plus reconnu que les droits des personnes au titre de l'article 8 de la CEDH étaient engagés par le traitement, et troisièmement, elle est restée silencieuse quant aux autres risques pouvant avoir été soulevés par l'utilisation d'AFR Locate, tels que le droit de la liberté d'expression ou la liberté de réunion.

Le Bureau du commissaire à l'information du Royaume-Uni (« ICO »), un intervenant dans l'affaire, a également critiqué la DPIA entreprise par la police du sud du Pays de Galles au motif qu'elle ne contenait pas d'évaluation de la « vie privée, des données personnelles et des garanties », n'a pas reconnu que L'AFR implique la collecte de données personnelles sur une « base générale et aveugle » et que le risque de résultats faussement positifs peut en fait entraîner des périodes de conservation plus longues plutôt que la suppression immédiate des données. En outre, la DPIA n'a pas abordé les préjugés sexistes et raciaux potentiels qui pourraient découler de l'utilisation d'AFR Locate. À ce titre, l'ICO a déclaré que la DPIA n'avait pas correctement évalué les risques et leur atténuation, comme l'exige l'article 64 de la DPA 2018.

La Cour d'appel n'a pas retenu tous ces arguments. Par exemple, elle a souligné que la DPIA avait spécifiquement fait référence à la pertinence de l'article 8 de la CEDH. Cependant, sur la base de sa conclusion selon laquelle le déploiement de la technologie n'était pas légal, la Cour a estimé que la police du Pays de Galles du Sud avait eu tort de conclure dans son DPIA que l'article 8 de la CEDH n'avait pas été enfreint. La Cour d'appel a déclaré : "La conséquence inévitable de ces lacunes est que, malgré la tentative de la DPIA de s'attaquer aux problèmes de l'article 8, la DPIA n'a pas correctement évalué les risques pour les droits et libertés des personnes concernées et n'a pas répondu les mesures envisagées pour faire face aux risques découlant des lacunes que nous avons constatées, comme l'exige l'article 64(3)(b) et (c) de la DPA 2018. »

Terrain 4

En ce qui concerne l'exigence d'avoir un "document de politique approprié" en place en vertu de l'article 42 de la DPA 2018, M. Bridges a fait valoir que l'évaluation de la suffisance du document n'aurait pas dû être renvoyée à la police du sud du Pays de Galles pour examen à la lumière des orientations. de l'ICO, mais au lieu de cela, la Haute Cour aurait dû la trouver insuffisante. La Cour d'appel a rejeté cet argument au motif qu'au moment du déploiement d'AFR Locate, le DPA 2018 n'était pas encore en vigueur et qu'il ne pouvait donc pas y avoir de non-respect de la loi. En ce qui concerne l'utilisation future d'AFR Locate et l'exigence d'un document de politique approprié, la Cour d'appel a fait remarquer que « [Un] document de l'article 42 est un document évolutif qui, conformément à l'article 42(3), doit être maintenu sous examen et mis à jour de temps à autre. Étant donné que les directives de l'ICO n'avaient pas été émises sur la rédaction de ce type de document au moment de l'audience de la Haute Cour, et étant donné que la police du sud du Pays de Galles avait mis à jour le document à la lumière des directives publiées par la suite par l'ICO, la Cour d'appel a conclu que le L'approche de la Haute Cour à cet égard était appropriée. Il a également fait référence au fait que l'ICO avait exprimé à plusieurs reprises l'avis que la version originale du document satisfaisait aux exigences de l'article 42, bien qu'elle contiendrait idéalement plus de détails.

Sol 5

Sur le dernier motif d'appel concernant le PSED en vertu de l'article 149 de la loi de 2010 sur l'égalité, la Cour a conclu que la police du sud du Pays de Galles n'avait pas recueilli suffisamment de preuves pour établir si oui ou non AFR Locate était intrinsèquement biaisé avant son utilisation pour deux raisons : (1 ) parce que les données des personnes dont les images ne correspondaient pas à celles des listes de surveillance ont été automatiquement supprimées (et n'ont donc pas pu être analysées dans le but d'évaluer les préjugés), et (2) parce que la police du sud du Pays de Galles n'était pas au courant de l'ensemble de données sur lequel AFR Locate avait été formé et n'a pas pu établir s'il y avait eu un déséquilibre démographique dans les données de formation pertinentes. Bien qu'il n'ait pas été allégué qu'AFR Locate avait produit des résultats biaisés, la Cour a déterminé que la police du sud du Pays de Galles "n'a jamais cherché à s'assurer, ni directement ni par le biais d'une vérification indépendante, que le logiciel en l'espèce n'avait pas de biais inacceptable sur des motifs de race ou de sexe. La Cour a ajouté : « Nous espérons que, comme l'AFR est une technologie nouvelle et controversée, toutes les forces de police qui ont l'intention de l'utiliser à l'avenir voudront s'assurer que tout ce qui peut raisonnablement être fait a été fait pour s'assurer que que le logiciel utilisé n'a pas de préjugé racial ou sexiste.

La police du sud du Pays de Galles a déclaré qu'elle ne ferait pas appel de la décision. L'arrêt complet de la Cour d'appel peut être consulté ici.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd