Incidents associés

Les ministres sont confrontés à des appels à un renforcement des garanties concernant l'utilisation de la technologie de reconnaissance faciale, après que le ministère de l'Intérieur a admis qu'elle était plus susceptible d'identifier incorrectement les personnes noires et asiatiques que les personnes blanches dans certains contextes.
Suite aux derniers tests menés par le Laboratoire national de physique (NPL) sur l'application de cette technologie au sein de la base de données nationale de la police, le ministère de l'Intérieur a déclaré qu'elle était « plus susceptible d'inclure incorrectement certains groupes démographiques dans ses résultats de recherche ».
Les commissaires de police et de la criminalité ont déclaré que la publication des conclusions du NPL « met en lumière un biais inhérent préoccupant » et ont appelé à la prudence quant aux projets d'extension à l'échelle nationale.
Ces conclusions ont été publiées jeudi, quelques heures après que Sarah Jones, la ministre de la Police, ait qualifié cette technologie de « plus grande avancée depuis la comparaison des données ADN ».
La technologie de reconnaissance faciale scanne les visages et compare ensuite les images aux listes de surveillance des criminels connus ou recherchés. Ce système peut être utilisé lors de l'analyse d'images en direct de personnes passant devant des caméras, afin de comparer leurs visages avec ceux des personnes recherchées, ou encore par les forces de l'ordre pour cibler des individus à proximité de caméras fixes.
Les images de suspects peuvent également être comparées a posteriori aux bases de données de la police, des passeports ou de l'immigration pour les identifier et vérifier leurs antécédents.
Des analystes ayant examiné l'outil de reconnaissance faciale rétrospective de la base de données nationale de la police, avec un niveau de sensibilité réduit, ont constaté que « le taux de faux positifs (TFP) pour les personnes blanches (0,04 %) est inférieur à celui des personnes asiatiques (4,0 %) et des personnes noires (5,5 %) ».
Les tests ont également révélé un nombre particulièrement élevé de faux positifs pour les femmes noires. « Le TFP pour les hommes noirs (0,4 %) est inférieur à celui des femmes noires (9,9 %) », indique le rapport.
L'Association des commissaires de police et de la criminalité a déclaré dans un communiqué que ces résultats mettaient en évidence un biais inhérent. Le communiqué indique : « Cela signifie que, dans certaines circonstances, le risque d'identifier incorrectement des personnes noires et asiatiques est plus élevé que celui d'identifier des personnes blanches. Le langage est technique, mais derrière les détails, il apparaît clairement que cette technologie a été déployée dans les opérations de police sans garanties suffisantes. »
Ce communiqué, signé par les responsables de l'APCC, Darryl Preston, Alison Lowe, John Tizard et Chris Nelson, s'interroge sur les raisons pour lesquelles ces conclusions n'ont pas été publiées plus tôt ni partagées avec les communautés noires et asiatiques.
Il précise : « Bien qu'aucun impact négatif n'ait été constaté dans un cas particulier, cela relève davantage de la chance que d'une intention délibérée. Les défaillances du système sont connues depuis un certain temps, mais elles n'ont été communiquées ni aux communautés concernées, ni aux principaux acteurs du secteur. »
Le gouvernement a annoncé une consultation publique de dix semaines, espérant qu'elle permettra une utilisation plus fréquente de cette technologie. Le public sera interrogé sur l'opportunité pour la police d'accéder à d'autres bases de données, notamment les images de passeports et de permis de conduire, afin de retrouver les criminels.
Les fonctionnaires collaborent avec la police à la mise en place d'un nouveau système national de reconnaissance faciale qui contiendra des millions d'images.
Charlie Whelton, chargé de mission et de campagnes au sein de l'association Liberty, a déclaré : « Les biais raciaux révélés par ces statistiques illustrent les conséquences néfastes et concrètes de l'utilisation de la reconnaissance faciale par la police sans garanties adéquates. Avec des milliers de recherches mensuelles effectuées grâce à cet algorithme discriminatoire, il est désormais crucial de répondre à de sérieuses questions quant au nombre de personnes de couleur identifiées à tort et aux conséquences que cela a engendrées.
Ce rapport confirme une fois de plus que cette technologie puissante et opaque ne peut être utilisée sans des garanties solides pour nous protéger tous, notamment une réelle transparence et un contrôle efficace. Le gouvernement doit suspendre le déploiement rapide de la technologie de reconnaissance faciale jusqu'à ce que ces garanties soient en place afin de protéger chacun d'entre nous et de donner la priorité à nos droits – une exigence du public, nous le savons. »
L'ancien ministre David Davis a exprimé son inquiétude après que des responsables de la police ont déclaré que ces caméras pourraient être installées dans les centres commerciaux, les stades et les gares pour traquer les criminels recherchés. Il a déclaré au Daily Mail : « Bienvenue dans la Grande-Bretagne sous surveillance généralisée. Il est clair que le gouvernement entend déployer cette technologie dystopique à travers le pays. Une mesure d'une telle ampleur ne devrait pas être prise sans un débat approfondi à la Chambre des communes. »
Les autorités affirment que cette technologie est nécessaire pour appréhender les criminels dangereux. Elles précisent que des procédures de sécurité, intégrées à la formation, aux pratiques opérationnelles et aux directives de la police, exigent que toutes les correspondances potentielles issues de la base de données nationale de la police soient évaluées visuellement par un utilisateur formé et un enquêteur.
Un porte-parole du ministère de l'Intérieur a déclaré : « Le ministère de l'Intérieur prend les conclusions du rapport au sérieux et nous avons déjà pris des mesures. » Un nouvel algorithme, exempt de biais statistiquement significatif, a été testé et acquis de manière indépendante. Il sera mis à l'essai début de l'année prochaine et fera l'objet d'une évaluation.
« Compte tenu de l'importance de cette question, nous avons également demandé à l'inspection générale de la police, en collaboration avec l'autorité de régulation des sciences forensiques, d'examiner l'utilisation de la reconnaissance faciale par les forces de l'ordre. Ils évalueront l'efficacité des mesures d'atténuation, soutenues par le Conseil national des chefs de police. »