Incidents associés

Mercredi matin, l'ACLU a annoncé qu'elle déposait une plainte contre le département de police de Detroit au nom de Robert Williams, un résident noir du Michigan qui le groupe a déclaré être l'une des premières personnes faussement arrêtées en raison d'un logiciel de reconnaissance faciale.
Williams et des avocats de l'ACLU ont déclaré que la police de Detroit recherchait quelqu'un qui s'était introduit par effraction dans un magasin de montres Shinola. Ils ont pris des images de la caméra de sécurité du propriétaire du magasin et les ont mises dans le logiciel de reconnaissance faciale de la ville, obtenant le Williams de 42 ans comme match.
La police l'a arrêté en janvier devant sa femme, ses enfants et ses voisins, a déclaré Williams dans un récit à la première personne de l'incident [publié par le Washington Post](https://www.washingtonpost.com/opinions/2020/06 /24/j-ai-été-arrêté-à- tort-parce-que-la-reconnaissance-faciale-pourquoi-la-police-est-elle-autorisée-à-utiliser-cette-technologie/). Après l'avoir détenu pendant 16 heures dans une cellule bondée du centre de détention de Detroit, un officier l'a amené dans une salle d'interrogatoire et lui a montré les photos de sécurité.
Selon Williams, il a tenu la photo à côté de son visage pour prouver que ce n'était pas lui, et l'un des officiers s'est tourné vers un autre et a dit : "l'ordinateur a dû se tromper". Son avocat a découvert plus tard que les images de la caméra de sécurité avaient été envoyées à la police de l'État du Michigan et que son logiciel de reconnaissance faciale avait extrait la photo du permis de conduire de Williams.
Le département de police de Detroit n'a pas répondu aux demandes de commentaires, mais dans une déclaration à NPR, il a déclaré: "Après l'affaire Williams, le département a promulgué de nouvelles règles. Désormais, seules les photos fixes, et non les images de sécurité, peuvent être utilisées pour la reconnaissance faciale et uniquement dans le cas de crimes violents.
Pendant des années, des chercheurs de l'ACLU, du MIT et d'autres institutions [ont constamment prouvé que les logiciels de reconnaissance faciale sont encore très imprécis](https://www.techrepublic.com/article/study-finds-amazons-face-recognition-incorrectly- matches-105-us-and-uk-politicians/), en particulier en ce qui concerne [les personnes à la peau plus foncée] (https://www.aclu.org/news/privacy-technology/how-is-face-recognition- surveillance-technologie-raciste/). Malgré l'inexactitude et les préoccupations de beaucoup, des centaines de services de police et le FBI utilisent le logiciel au quotidien base pour identifier les personnes lors des enquêtes.
Mais dans un communiqué, l'ACLU a déclaré que les forces de l'ordre ne disent jamais aux gens s'ils ont été identifiés à l'aide d'un logiciel de reconnaissance faciale, et c'est [le premier cas documenté où la police a admis](https://www.aclu.org/news/privacy- technologie/arrêté à tort parce que la reconnaissance faciale ne peut pas distinguer les Noirs/) que leur utilisation du logiciel est à l'origine de l'erreur. Selon l'ACLU, l'erreur n'a été révélée que parce que Williams a entendu ce que les officiers ont dit lors de son interrogatoire et que ses avocats ont pu demander plus d'informations sur la façon dont il a été identifié.
«Nous avons depuis longtemps averti qu'une fausse correspondance peut conduire à un interrogatoire, une arrestation et, en particulier pour les hommes noirs comme Robert, même une rencontre policière mortelle. Compte tenu des défauts de la technologie et de l'ampleur de son utilisation par les forces de l'ordre aujourd'hui, Robert n'est probablement pas la première personne à être arrêtée à tort à cause de cette technologie », a déclaré l'ACLU dans un communiqué.
"C'est juste la première personne dont nous apprenons l'existence."
Les appels aux interdictions se multiplient
Plusieurs villes américaines comme San Francisco ont carrément interdit à la police d'utiliser un logiciel de reconnaissance faciale, mais Williams, l'ACLU et d'autres experts demandent maintenant une interdiction nationale de l'utilisation du logiciel, au moins jusqu'à ce qu'il puisse être perfectionné.
Josh Bohls, PDG et fondateur d'Inkscreen, une société de capture de contenu, a déclaré que la technologie de reconnaissance faciale ne peut pas être utilisée uniquement pour déterminer l'arrestation et l'a qualifiée de "trop nouvelle et non prouvée pour déterminer l'identification d'un suspect".
Il a ajouté que la police n'avait toujours pas pleinement étoffé les implications juridiques et de confidentialité de son utilisation et a déclaré que tout au plus, la police de Detroit aurait dû simplement l'utiliser pour interroger Williams, pas pour l'arrêter.
Selon James McQuiggan, défenseur de la sensibilisation à la sécurité chez KnowBe4, la reconnaissance faciale utilise l'intelligence artificielle (AI ) et dessine un visage en créant des vecteurs et des matrices, mais peut être limité par la qualité de la lumière sur le sujet.
« Les personnes ayant des tons de peau plus foncés et une image avec une faible qualité de lumière présentent une complication qui ne semble pas adéquatement traitée par les logiciels de reconnaissance faciale. Plus inquiétant encore, il n'y a pas de système d'audit approprié en place pour ces systèmes en ce qui concerne les faux positifs ou les abus », a déclaré McQuiggan, ajoutant que tout ce que ces systèmes produisent devrait être utilisé comme point de référence et non comme seule raison d'arrêter des personnes.
Selon Chris Clements, vice-président de l'architecture des solutions chez Cerberus Sentinel, le logiciel de reconnaissance faciale ne doit être utilisé qu'avec des caméras haute définition et des capteurs d'adaptation de profondeur à courte distance.
Il a déclaré que l'utilisation de la technologie en était encore à ses balbutiements et devrait être traitée avec peu de confiance jusqu'à ce qu'elle puisse être corroborée par d'autres preuves. Tenter de faire correspondre une image fixe d'une caméra vidéo de mauvaise qualité à plusieurs mètres de distance est susceptible de produire des correspondances de très faible confiance, a-t-il ajouté.
Il y a à peine trois semaines, Paul Bischoff de Comparitech.com a publié une étude sur le logiciel de reconnaissance faciale d'Amazon qui a révélé qu'il avait même du mal à identifier les portraits de politiciens, qui sont beaucoup plus clairs que n'importe quel type de séquences de sécurité utilisées par la police. Même avec des photos d'une clarté cristalline, le logiciel correspondait de manière incorrecte à une moyenne de 32 membres du Congrès américain à des clichés dans une base de données d'arrestations.
Bischoff a déclaré que des cas comme celui-ci sont d'excellents exemples de la raison pour laquelle un moratoire sur l'utilisation par la police des logiciels de reconnaissance faciale est nécessaire jusqu'à ce que des réglementations soient mises en place pour restreindre la façon dont il peut être utilisé.
"La police de Detroit a transmis des séquences vidéo granuleuses à un outil de reconnaissance faciale - des outils qui peuvent identifier les personnes à tort même lorsque des tirs à la tête clairs sont utilisés. Le suspect était noir, ce qui renforce le fait que la reconnaissance faciale identifie à tort les personnes de couleur à un taux plus élevé que les personnes blanches, et a donc un impact disproportionné sur les personnes de couleur », a déclaré Bischoff.
« Le pire de tout, l'inadéquation a conduit la police à tirer des conclusions hâtives et à procéder à une arrestation sans diligence raisonnable. Ce n'est qu'un cas qui a été rendu public, mais la police utilise tout le temps la reconnaissance faciale à huis clos, et nous continuerons à voir les mêmes erreurs et abus de reconnaissance faciale jusqu'à ce qu'une réglementation appropriée soit en place.
Plusieurs groupes de défense poussent maintenant les législateurs à au moins mettre en place des lois pour réglementer la manière dont le logiciel est utilisé. À l'instar des changements décrits par le département de police de Detroit dans sa déclaration, les organisations de défense des droits civiques souhaitent que des limites soient fixées sur les crimes pour lesquels la reconnaissance faciale peut être utilisée et sur les seuils de précision à mettre en place.
"Ce qui est arrivé à Robert Williams et à sa famille devrait être un signal d'alarme pour les législateurs. La reconnaissance faciale fait du mal en ce moment. Ce n'est que le premier cas révélé. Il y a presque incontestablement des gens qui sont en prison en ce moment qui y ont été mis parce qu'ils ont été faussement accusés par un algorithme informatique raciste. Trop c'est trop. Il est temps que le Congrès fasse son travail et interdise la surveillance par reconnaissance faciale aux États-Unis », a déclaré Evan Greer, directeur adjoint du groupe de défense des droits Fight for the Future.
Même les entreprises qui vendent des logiciels de reconnaissance faciale demandent une législation pour régir la technologie. À la lumière des récentes manifestations dans le monde entier, Amazon, IBM et d'autres grandes entreprises technologiques [ont accepté un moratoire d'au moins un an](https://www.techrepublic.com/article/amazon-puts-one-year-moratorium -on-police-use-of-facial-recognition-software/) pour autoriser l'utilisation de leurs programmes de reconnaissance faciale par la police. Une déclaration d'Amazon a déclaré qu'elle "a plaidé pour que les gouvernements mettent en place des réglementations plus strictes pour régir l'utilisation éthique de la technologie de reconnaissance faciale", et a déclaré que le Congrès américain "semble prêt à relever ce défi".
"Nous espérons que ce moratoire d'un an donnera au Congrès suffisamment de temps pour mettre en œuvre les règles appropriées, et nous sommes prêts à aider si nécessaire", indique le communiqué.
Mais pour Williams, le mal est déjà fait. Dans son récit de ce qui s'est passé, il a parlé de l'horreur de ses enfants le voyant être arrêté et de sa peur qu'il soit l'un des plus chanceux.
"Je n'aurais jamais pensé devoir expliquer à mes filles pourquoi papa a été arrêté. Comment expliquer à deux petites filles qu'un ordinateur s'est trompé, mais que la police l'a quand même écouté ? Pourquoi les forces de l'ordre sont-elles même autorisées à utiliser une telle technologie alors qu'elle ne fonctionne manifestement pas ? Je me fâche quand j'entends des entreprises, des politiciens et des policiers dire que cette technologie n'est ni dangereuse ni défectueuse », a écrit Williams.
"Je ne serais pas surpris si d'autres comme moi devenaient des suspects mais ne savaient pas qu'une technologie défectueuse les rendait coupables aux yeux de la loi. Je n'aurais pas su que la reconnaissance faciale avait été utilisée pour m'arrêter sans les flics qui l'ont laissé échapper en m'interrogeant. Je n'arrête pas de penser à la chance que j'ai eue de n'avoir passé qu'une seule nuit en prison, aussi traumatisante soit-elle. Beaucoup de Noirs n'auront pas cette chance. Ma famille et moi ne voulons pas vivre avec cette peur. Je ne veux pas que quiconque vive avec cette peur.