Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2127

Incidents associés

Incident 3108 Rapports
High False Positive Rate by SWP's Facial Recognition Use at Champion's League Final

Loading...
EWCA Civ 1058 - R (Bridges) contre CC Galles du Sud
judiciary.uk · 2020

Sir Terence Etherton MR, Dame Victoria Sharp PQBD et Lord Justice Singh :

Cet appel concerne la légalité de l'utilisation de la technologie de reconnaissance faciale automatisée en direct («AFR») par la police du sud du Pays de Galles («SWP») dans un procès en cours utilisant un système appelé AFR Locate. AFR Locate implique le déploiement de caméras de surveillance pour capturer des images numériques de membres du public, qui sont ensuite traitées et comparées avec des images numériques de personnes figurant sur une liste de surveillance compilée par SWP aux fins du déploiement. Compte tenu des faits de la présente affaire, AFR Locate a été utilisé de manière manifeste. Il n'a pas été déployé comme une forme de surveillance secrète. Pour cette raison, il est constant que cette affaire ne soulève pas de questions qui pourraient autrement se poser en vertu de la loi de 2000 sur la réglementation des pouvoirs d'enquête.

L'appel porte sur l'ordonnance datée du 4 septembre 2019 de Haddon-Cave LJ et Swift J de la Divisional Court of the Queen's Bench Division rejetant la demande de contrôle judiciaire de l'appelant contestant la légalité de l'utilisation d'AFR Locate à deux occasions particulières et sur une base continue. Les motifs de contestation étaient que l'AFR n'est pas compatible avec le droit au respect de la vie privée en vertu de l'article 8 de la Convention européenne des droits de l'homme («la Convention»), qui est l'un des droits de la Convention énoncés à l'annexe 1 de la Loi de 1998 sur les droits de l'homme (« HRA ») ; législation sur la protection des données ; et le devoir d'égalité du secteur public (« PSED ») à l'article 149 de la loi de 2010 sur l'égalité.

La Cour divisionnaire a noté dans son jugement la manière coopérative et utile dont l'affaire avait été présentée de toutes parts afin de vérifier les premières orientations du tribunal quant aux paramètres et au cadre juridiques relatifs à l'AFR alors qu'elle est encore dans sa phase de procès. et avant qu'il ne soit déployé à l'échelle nationale. Cet appel a été mené sur la même base.

Conclusion

Pour les motifs que nous avons exposés, cet appel sera accueilli pour les motifs 1, 3 et 5. Nous rejetons les motifs 2 et 4.

Quant à la réparation appropriée, nous estimons qu'un jugement déclaratoire reflétant les raisons pour lesquelles cet appel a réussi suffira. Dans les circonstances qui se sont produites, les parties conviennent que le seul recours requis est une déclaration, mais elles n'ont pas été en mesure de s'entendre sur les termes précis d'une déclaration. Après avoir examiné les thèses concurrentes, nous avons conclu que la déclaration proposée par SWP reflète plus fidèlement le jugement de cette Cour. Nous accorderons une déclaration dans les termes suivants :

  1. L'utilisation par le défendeur de la technologie de reconnaissance faciale automatisée en direct les 21 décembre 2017 et 27 mars 2018 et de manière continue, qui engageait l'article 8(1) de la Convention européenne des droits de l'homme, n'était pas conforme à la loi aux fins de l'article 8, paragraphe 2.
  2. En conséquence de la déclaration énoncée au paragraphe 1 ci-dessus, en ce qui concerne l'utilisation continue par le défendeur de la technologie de reconnaissance faciale automatisée en direct, son évaluation de l'impact sur la protection des données n'était pas conforme à l'article 64(3)(b) et (c) de la Loi sur la protection des données 2018.
  3. Le défendeur ne s'est pas conformé à l'obligation d'égalité du secteur public de l'article 149 de la loi de 2010 sur l'égalité avant ou au cours de son utilisation de la technologie de reconnaissance faciale automatisée en direct les 21 décembre 2017 et 27 mars 2018 et de manière continue.
Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd