Incidents associés

Un logiciel de reconnaissance faciale a identifié à tort plus de 2 000 personnes comme des criminels potentiels alors que la police patrouillait la finale de la Ligue des champions à [Cardiff] (http://www.walesonline.co.uk/all-about/cardiff).
La technologie a fourni des centaines de "faux positifs" désignant à tort des innocents comme de possibles fauteurs de troubles lorsqu'environ 170 000 personnes sont descendues dans la ville pour le match phare entre le Real Madrid et la Juventus.
Un porte-parole de la police du sud du Pays de Galles a admis "qu'aucun système de reconnaissance faciale n'est précis à 100 % dans toutes les conditions", mais a ajouté qu'au cours des mois depuis son déploiement, « personne n'a été arrêté en cas de 'fausse alerte positive' et aucun membre du public ne s'est plaint ».
Les données publiées par la force ont montré que la police couvrant la finale de la Ligue des champions au stade de la Principauté le 3 juin de l'année dernière était alerté de 2 470 correspondances potentielles avec des photos de garde par le programme de reconnaissance faciale.
Mais sur ces 92% - un total de 2 297 - étaient incorrects, avec seulement 173 fournissant de "vraies alertes positives".
La force a attribué le nombre élevé de faux positifs lors de la finale de la Ligue des champions à la "mauvaise qualité des images" sur la liste de surveillance fournie par l'UEFA, Interpol et d'autres agences partenaires ainsi qu'au fait qu'il s'agissait de la première utilisation majeure de la technologie.
Les statistiques fournies par la force, couvrant la période entre juin de l'année dernière et mars de cette année, ont également montré d'autres occasions – y compris des événements sportifs et des concerts – où la technologie avait été utilisée.
Ils ont inclus le Festival Elvis à Porthcawl, où il y a eu 10 vraies alertes positives et sept faux positifs, ainsi que pendant les quatre internationaux d'automne du Pays de Galles. alors qu'il y avait un total de 15 vrais positifs et 71 faux positifs.
Des officiers patrouillant le boxeur [le combat pour le titre mondial des poids lourds d'Anthony Joshua avec Carlos Takam] (https://www.walesonline.co.uk/sport/boxing/anthony-joshua-secures-victory-over-13826656) à Cardiff ont enregistré cinq vrais positifs par rapport à 46 faux positifs alors qu'il n'y avait aucun enregistrement de l'un ou l'autre type lorsque le prince Harry et Meghan Markle [ont visité la ville en janvier] (https://www.walesonline.co.uk/lifestyle/showbiz/prince-harry-meghan-markle- le plus doux-14174862).
La technologie a également été utilisée lors de spectacles par Stereophonics, Kasabian et Liam Gallagher.
Le constable en chef Matt Jukes a déclaré à la BBC : « Nous savons que nos grands événements sportifs et nos lieux bondés sont des cibles potentielles de terroristes – c'est une réalité.
«Nous devons donc utiliser la technologie lorsque nous avons des dizaines de milliers de personnes dans ces foules pour protéger tout le monde, et nous en obtenons d'excellents résultats.
"Mais nous ne prenons pas l'utilisation à la légère et nous sommes très sérieux pour nous assurer qu'il est précis."
Le groupe des libertés civiles Big Brother Watch a critiqué l'utilisation de la technologie, déclarant dans un tweet : "Non seulement la reconnaissance faciale en temps réel est une menace pour les libertés civiles, mais c'est un outil de police dangereusement inexact".
La police du sud du Pays de Galles est devenue la première au Royaume-Uni à introduire la technologie l'année dernière avec la [première arrestation en conséquence] (https://www.walesonline.co.uk/news/local-news/first-arrest-using-facial -reconnaissance-13126934) survenue le 31 mai.
Le système permet aux caméras en temps réel de surveiller les personnes par rapport à une base de données d'environ un demi-million d'images de détention ainsi que d'autres informations telles que les images CCTV et E-fit.
Lorsqu'il a été présenté avant la finale de la Ligue des champions, un porte-parole de la force a déclaré que l'événement avait "clairement fourni un terrain d'essai parfait" pour la technologie.
À la lumière des dernières statistiques, un porte-parole de la police du sud du Pays de Galles a déclaré que depuis l'introduction de la technologie de reconnaissance faciale l'année dernière, plus de 2 000 "correspondances positives" avaient été effectuées, entraînant plus de 450 arrestations.
« Jusqu'à présent, les condamnations réussies comprennent six ans de prison pour vol qualifié et quatre ans et demi d'emprisonnement pour cambriolage.
"La technologie a également aidé à identifier les personnes vulnérables en temps de crise", a déclaré le porte-parole.
Mais ils ont ajouté: "Bien sûr, aucun système de reconnaissance faciale n'est précis à 100% dans toutes les conditions, ce qui entraîne ce que l'on appelle des" faux positifs ". C'est là que le système associe incorrectement une personne à une liste de surveillance.
"Les problèmes techniques sont communs à tous les systèmes de reconnaissance faciale, ce qui signifie que les faux positifs seront un problème à mesure que la technologie se développera.
«Depuis les premiers déploiements lors de la finale de la Ligue des champions européenne en juin 2017, la précision du système utilisé par la police du sud du Pays de Galles n'a cessé de s'améliorer.
« Il est également important de souligner que depuis que nous avons introduit la technologie de reconnaissance faciale, personne n'a été arrêté en cas de « fausse alerte positive » et aucun membre du public ne s'est plaint. Cela est dû à l'importance que nous accordons au jugement humain.
« Dans tous les cas, un opérateur va considérer une première alerte et va soit passer outre, ce qui arrive dans la majorité des cas, soit envoyer une équipe d'intervention là où un match est considéré comme fait.
"Lorsque cela se produit, les agents peuvent rapidement déterminer si la personne a été correctement ou incorrectement appariée par les méthodes policières traditionnelles, soit en regardant la personne, soit par une brève conversation. Si une correspondance incorrecte a été établie, les agents expliqueront à la personne ce qui s'est passé et l'inviteront à voir l'équipement tout en lui fournissant un avis de traitement équitable.