*Voir le rapport complet du Washington Post pour plus d'informations, y compris une explication de la méthodologie employée. * PAGEDALE, Missouri — Après que deux hommes ont brutalement agressé un agent de sécurité sur un quai de gare désolé à la périphérie de Saint-Louis, le détective Matthew Shute de la police des transports du comté a eu du mal à identifier les coupables. Il a étudié des vidéos de surveillance granuleuses, a sondé des refuges pour sans-abri et a appelé à plusieurs reprises la victime de l'attaque, qui a dit ne se souvenir de presque rien en raison d'une lésion cérébrale due au passage à tabac. Des mois plus tard, ils ont essayé une autre option. Shute a téléchargé une image fixe de la vidéo floue de l'incident dans un programme de reconnaissance faciale, qui utilise l'intelligence artificielle pour éplucher les photos d'identité de centaines de milliers de personnes arrêtées dans la région de Saint-Louis. Malgré la mauvaise qualité de l'image, le logiciel a craché les noms et les photos de plusieurs personnes considérées comme ressemblant à l'un des agresseurs, dont le visage était encapuchonné par un manteau d'hiver et partiellement caché par un masque chirurgical. Bien que la politique de reconnaissance faciale de la ville prévienne les policiers que les résultats de la technologie ne sont pas « scientifiques » et « ne devraient pas être utilisés comme seule base pour une décision », Shute a ensuite monté un dossier contre l’un des résultats générés par l’IA : Christopher Gatlin, un père de quatre enfants de 29 ans qui n’avait aucun lien apparent avec la scène du crime ni aucun antécédent de délits violents, comme Shute le reconnaîtra plus tard. Arrêté et emprisonné pour un crime qu’il affirme n’avoir pas commis, il a fallu plus de deux ans à Gatlin pour laver son honneur. Une enquête du Washington Post sur l’utilisation par la police de logiciels de reconnaissance faciale a révélé que les forces de l’ordre de tout le pays utilisent les outils d’intelligence artificielle d’une manière qui n’était pas prévue : comme un raccourci pour trouver et arrêter des suspects sans autres preuves. La plupart des services de police ne sont pas tenus de signaler qu’ils utilisent la reconnaissance faciale, et peu d’entre eux conservent des traces de leur utilisation de cette technologie. Le Post a examiné des documents provenant de 23 services de police où des dossiers détaillés sur l’utilisation de la reconnaissance faciale sont disponibles et a constaté que 15 services répartis dans 12 États ont arrêté des suspects identifiés grâce à des correspondances d’IA sans aucune preuve indépendante les reliant au crime – dans la plupart des cas, ce qui contredit leurs propres politiques internes exigeant que les agents corroborent toutes les pistes trouvées grâce à l’IA. Certains agents des forces de l’ordre utilisant cette technologie semblent abandonner les normes policières traditionnelles et traiter les suggestions du logiciel comme des faits, a constaté le Post. Un rapport de police a fait référence à un résultat d’IA non corroboré comme une « correspondance à 100 % ». Un autre a déclaré que la police avait utilisé le logiciel pour identifier « immédiatement et sans aucun doute » un voleur présumé. Gatlin est l’une des huit personnes au moins arrêtées à tort aux États-Unis après avoir été identifiées par reconnaissance faciale. Six cas ont déjà été signalés dans les médias. Deux arrestations injustifiées – Gatlin et Jason Vernau, un résident de Miami – n’ont pas été signalées auparavant. Toutes les affaires ont finalement été classées sans suite. La police aurait probablement pu éliminer la plupart des suspects avant leur arrestation grâce à un travail policier de base, comme la vérification des alibis, la comparaison des tatouages ou, dans un cas, la recherche d’ADN et d’empreintes digitales laissées sur les lieux. Ces exemples de travail policier douteux – glanés grâce à l’analyse par le Post de dossiers de logiciels internes rarement consultés, de rapports d’arrestation, de dossiers judiciaires et d’entretiens avec la police, les procureurs et les avocats de la défense – ne sont probablement qu’un petit échantillon du problème. Le nombre total de fausses arrestations alimentées par des correspondances d’IA est impossible à connaître, car la police et les procureurs informent rarement le public lorsqu’ils ont utilisé ces outils et, dans tous les États sauf sept, aucune loi n’exige explicitement que ces informations soient divulguées. Des centaines de services de police du Michigan et de Floride ont la possibilité d’exécuter des images via des programmes de reconnaissance faciale à l’échelle de l’État, mais le nombre de ceux qui le font est inconnu. L’un des principaux fabricants de logiciels de reconnaissance faciale, Clearview AI, a déclaré dans un pitch à des investisseurs potentiels que 3 100 services de police utilisent ses outils, soit plus d’un sixième de toutes les agences américaines chargées de l’application de la loi. L’entreprise n’identifie pas publiquement la plupart de ses clients. Grâce à un examen des contrats gouvernementaux, des rapports des médias et des demandes de documents publics, le Post a identifié 75 services qui utilisent la reconnaissance faciale, dont 40 ont partagé des dossiers sur des cas dans lesquels elle a conduit à des arrestations. Parmi ceux-ci, 17 n’ont pas fourni suffisamment de détails pour déterminer si les agents ont tenté de corroborer les correspondances de l’IA. Parmi les 23 agences restantes, le Post a constaté que près des deux tiers avaient arrêté des suspects identifiés grâce à des correspondances d'IA sans preuve indépendante. La plupart des services ont refusé de répondre aux questions sur leur utilisation de l'IA. Certains ont nié que les agents aient arrêté des personnes sur la seule base de l'IA, mais ont refusé de fournir des détails ou des documents pour étayer ces affirmations. D'autres ont déclaré que les agents peuvent déterminer si la personne qu'ils voient sur deux ou plusieurs photos est la même. À Florence, dans le Kentucky, des documents montrent que la police a arrêté des personnes identifiées par reconnaissance faciale sans corroboration indépendante dans quatre cas. L'une d'elles a plaidé coupable de vol ; les trois autres affaires sont toujours en cours. Le procureur local, Louis Kelly, a déclaré qu'il faisait confiance aux agents pour utiliser leur jugement pour identifier les suspects, y compris ceux trouvés avec l'IA. "Nous devons permettre aux agents d'utiliser le bon sens et les méthodes disponibles", a déclaré Kelly dans un e-mail. ### Un nouveau sentiment d'urgence Le 9 août 2021, huit mois après l'agression de la gare de Pagedale, trois agents en uniforme sont apparus dans le hall de l'immeuble d'appartements de l'agent de sécurité blessé, Michael Feldman, avec un nouveau sentiment d'urgence quant à la résolution de l'affaire. Les policiers ont apporté une série de photos de six hommes, dont Gatlin. Feldman leur a dit qu'il ne se souvenait toujours pas de grand-chose à cause de la lésion cérébrale qu'il avait subie. « J'avais l'impression d'être coincé dans une situation dans laquelle je ne voulais pas me retrouver », a déclaré Feldman, 62 ans, dans une récente interview. « J'avais l'impression de ne pas me souvenir de son apparence. » Suivant les instructions du policier, Feldman a néanmoins examiné chaque photo puis, une par une, les a jetées dans une pile, selon les images de la caméra corporelle incluses dans un dossier judiciaire. Feldman a réduit le groupe de photos à deux - Gatlin et un autre homme, qui était également noir mais avait un teint nettement plus clair, selon une requête déposée par l'avocat de Gatlin. Il a placé la photo de Gatlin dans la pile de rebuts tout en faisant signe à l'autre homme. « Je veux dire que c'est lui », a-t-il dit, en désignant l'autre homme. Les enquêteurs n'ont pas immédiatement accepté l'identification et quelques instants plus tard, Feldman a ramené la photo de Gatlin, en disant qu'il n'était pas sûr de savoir de qui il s'agissait. "Pensez aux caractéristiques de l'homme, à son teint ; est-ce qu'il avait quelque chose à propos de ses cheveux ou des vêtements qu'il portait ?", a demandé Matthew Welle, inspecteur de la police de la ville de Saint-Louis. Lorsque Feldman a dit qu'il pensait que l'homme portait un chapeau ou un bonnet, Welle l'a encouragé à poser ses mains sur les photos pour l'aider à "imaginer ces deux types portant un bonnet". Feldman a ensuite choisi Gatlin et a regardé l'officier avec impatience. "Ok !" a dit Welle, en demandant à Feldman d'entourer la photo de Gatlin et de signer son nom, ignorant son commentaire précédent sur l'autre homme. La déclaration de Feldman était la seule preuve dont disposait la police lorsqu'elle a déposé une plainte contre Gatlin six jours plus tard, montrant comment la confiance de la police dans les résultats des logiciels peut influencer toute une enquête. Interrogé des mois plus tard au tribunal pour savoir si cette façon d'orienter le témoin avait été appropriée, le détective principal, Shute, a répondu "non". Tracy Panus, porte-parole de la police du comté de Saint-Louis, a déclaré dans un communiqué envoyé par courrier électronique que l'agence forme les agents à développer "des preuves indépendantes et corroborantes concernant la reconnaissance faciale" et exige que leur superviseur examine les cas dans lesquels la reconnaissance faciale contribue à une arrestation. Panus, Shute et Mitch McCoy, porte-parole de la police métropolitaine de Saint-Louis, ont tous refusé de discuter de l'enquête sur l'attaque de Feldman. Welle n'a pas répondu aux demandes de commentaires. ### Biais d'automatisation La police attribue à la reconnaissance faciale le mérite de l'avoir aidée à résoudre de nombreuses affaires difficiles, notamment l'attaque du 6 janvier 2021 contre le Capitole américain. Les enquêteurs fédéraux ont rassemblé de nombreuses preuves supplémentaires dans le cadre de cette enquête - notamment des données de localisation cellulaire et des publications sur les réseaux sociaux - ce qui a donné lieu à plus de 1 200 condamnations. Le logiciel fonctionne presque parfaitement lors des tests en laboratoire utilisant des photos de comparaison claires. Mais il n’y a pas eu de tests indépendants en conditions réelles pour évaluer la précision de la technologie dans la façon dont la police l’utilise habituellement – avec des images de surveillance de moindre qualité et des agents choisissant un candidat parmi une liste de correspondances possibles, a déclaré Katie Kinsey, chef de cabinet du Policing Project à la NYU School of Law. Pour cette raison, il est difficile de savoir à quelle fréquence le logiciel se trompe, a-t-elle déclaré. De plus, les chercheurs ont découvert que les personnes qui utilisent des outils d’IA peuvent succomber au « biais d’automatisation », une tendance à faire aveuglément confiance aux décisions prises par des logiciels puissants, ignorant leurs risques et leurs limites. Une étude de 2012 [https://www.academia.edu/15432381/The_Impact_of_Human_Technology_Cooperation_and_Distributed_Cognition_in_Forensic_Science_Biasing_Effects_of_AFIS_Contextual_Information_on_Human_Experts_?uc-g-sw=41673921&itid=lk_inline_enhanced-template ] menée par un neuroscientifique de l'University College de Londres a révélé que les examinateurs d'empreintes digitales étaient influencés par l'ordre dans lequel un système informatique leur présentait une liste d'empreintes digitales potentiellement correspondantes. Ils étaient plus susceptibles de faire correspondre par erreur les empreintes apparaissant en haut de la liste, ce qui suggère qu'ils n'ont pas réussi à évaluer correctement les similitudes d'autres correspondances potentielles en raison d'un manque de confiance dans le système. Dans un exemple du pouvoir puissant de la reconnaissance faciale, la police de Woodbridge, dans le New Jersey, a arrêté Nijeer Parks, un suspect de vol qu'elle a trouvé grâce à la reconnaissance faciale en 2019, même si les preuves ADN et empreintes digitales recueillies sur les lieux indiquaient clairement un autre suspect potentiel, selon les documents produits dans un procès que Parks a ensuite intenté contre le service de police. Woodbridge a réglé le procès pour 300 000 $ l'année dernière, sans admettre de faute. La police de Woodbridge n'a pas répondu aux demandes de commentaires, et le Post n'a pu trouver aucune indication que l'homme qui correspondait aux preuves ADN et empreintes digitales ait jamais été inculpé. Des recherches universitaires ont montré que certaines personnes ont des sosies génétiquement similaires qui n'ont aucun lien de parenté avec elles. Les gens ne sont pas particulièrement doués pour distinguer deux visages inconnus qui se ressemblent, ce qui rend difficile de déterminer si une correspondance IA est l'agresseur ou simplement quelqu'un qui leur ressemble, selon Clare Garvie, une chercheuse en IA qui a formé des avocats de la défense pénale dans tout le pays sur la façon dont la police utilise la reconnaissance faciale. Lors d'une déposition devant un tribunal en 2023, Jennifer Coulson, une examinatrice d'images formée pour l'État du Michigan, a décrit avec des détails étranges comment elle a déterminé que les traits du visage d'un homme correspondaient à ceux de l'agresseur filmé par une vidéo de surveillance en train de voler des montres dans un magasin haut de gamme. « J'ai adoré le schéma de croissance de ses poils faciaux, l'épaisseur de ses lèvres, la fissure de ses lèvres », a déclaré Coulson, qui a choisi l'homme parmi des centaines de photos renvoyées par le logiciel de reconnaissance faciale de l'État comme correspondances possibles. « J'ai adoré l'épaisseur de ses joues... et la présence de la sclère des yeux. » Coulson avait tort. Le visage qu'elle décrivait appartenait à Robert Williams, que la police de Détroit a arrêté à tort en partie sur la base de sa découverte. Dans un accord annoncé en juin, Détroit a payé 300 000 dollars à Williams et a accepté d'exiger des agents qu'ils recueillent des preuves indépendantes sur les suspects identifiés par l'IA avant de demander un mandat d'arrêt. Coulson n'a pas répondu à une demande de commentaire. Une porte-parole de la police de l'État du Michigan a refusé de commenter l'erreur, mais a déclaré que l'État compte sur les enquêteurs pour corroborer toutes les pistes qu'il leur fournit à partir de la reconnaissance faciale. Dans plusieurs cas examinés par le Post, les agents ont arrêté une personne identifiée par l'IA après avoir seulement utilisé leur propre jugement pour savoir s'il s'agissait de la même personne ou en montrant une photo du suspect à des témoins, sans autrement relier la personne au crime, montrent les dossiers. Bien avant l'IA, l'identification des témoins était considérée comme problématique lorsqu'elle constituait la seule preuve de la culpabilité d'un suspect. La mémoire humaine est imparfaite et les témoins peuvent être influencés par la police, de manière inconsciente ou consciente. Selon une base de données gérée par le National Registry of Exonerations, un groupe de recherche universitaire, plus d'un quart de toutes les exonérations depuis 1989 --- soit 986 cas --- ont impliqué une identification erronée d'un témoin. Qu'ils en soient conscients ou non, les policiers qui inscrivent un suspect trouvé par l'IA dans une série de photos peuvent effectivement « piéger » un témoin pour qu'il choisisse cette personne, a déclaré Gary Wells, un psychologue de l'Université d'État de l'Iowa dont les recherches ont mis en lumière les identifications erronées de témoins oculaires. L'IA peut avoir sélectionné quelqu'un qui ressemble tellement à l'agresseur qu'il serait impossible pour beaucoup de gens de faire la différence, a déclaré Wells. « Bien sûr qu'ils vont le choisir. » ### Un coup à la porte Cinq jours après que Feldman a entouré la photo de Gatlin, la police a frappé à la porte de la maison de la sœur de Gatlin à Saint-Louis. Gatlin, un homme mince au large sourire, partageait son temps entre Saint-Louis, où il a grandi, et une petite ville de l'Indiana où vivait son père. Il était récemment revenu à Saint-Louis pour les funérailles de sa mère, mais a fini par y rester un certain temps, passant du temps avec ses enfants et acceptant un emploi au Walmart près de l'aéroport de Saint-Louis. Il se détendait après avoir travaillé de nuit lorsque les deux policiers lui ont demandé de sortir. Il a obéi, pensant qu'ils étaient là pour s'enquérir de son camion, qui était tombé en panne sur le bord de la route. Ils lui ont demandé s'il avait une carte pour le métro dans son portefeuille. Lorsqu'il a répondu non, ils se sont brièvement regardés, a-t-il dit. Puis l'un d'eux a sorti une paire de menottes et lui a dit qu'il allait en prison. Comme de nombreux cas de reconnaissance faciale examinés par le Post, la plainte de la police indiquait seulement que Gatlin "avait été identifié" dans une agression filmée, sans dire comment la police l'avait lié au crime. Lorsque Gatlin n’a pas pu payer la caution de 75 000 $ en espèces, il a été placé en détention provisoire dans une cellule de prison plus petite qu’une place de parking. « Je n’ai jamais pensé que j’allais sortir », a déclaré Gatlin, aujourd’hui âgé de 32 ans, dans une interview. Il a fini par passer 16 mois en prison, en partie parce qu’il a coupé le bracelet électronique alors qu’il était en liberté conditionnelle et a dû y retourner. Dans tous les cas connus d’arrestation injustifiée en raison de la reconnaissance faciale, la police a arrêté une personne sans établir de lien indépendant avec la personne au crime. Prenez Vernau, 49 ans, un entrepreneur médical, qui a passé trois jours derrière les barreaux en juillet 2024 après que la police l’a accusé d’avoir encaissé un chèque frauduleux de 36 000 $ dans une succursale de la banque Truist à Miami, sur la base d’une image de caméra de surveillance qu’ils ont passée par reconnaissance faciale, selon des documents que les procureurs ont partagés avec le Post. Contrairement à d’autres cas de fausse arrestation, Vernau a été correctement identifié comme la personne dans la vidéo de surveillance. Cependant, Vernau n’était qu’un client encaissant un chèque légitime de 1 500 $ dans la même banque le même jour que la fraude. Un enquêteur de Truist a partagé par erreur le clip de Vernau avec la police, selon un résumé de l'affaire rédigé par un procureur. La police n'a jamais vérifié les comptes bancaires de Vernau, l'horodatage de la transaction ou d'autres preuves qui auraient révélé l'erreur, a déclaré son avocat. "C'est votre travail d'enquête ?", se souvient Vernau, demandant aux détectives qui l'ont interrogé au département de police de Miami pendant sa détention. "Vous avez une photo de moi dans une banque et c'est votre preuve ? J'ai dit, où sont mes empreintes digitales sur le chèque ? Où est ma signature ?" Les procureurs ont ensuite abandonné l'affaire, mais Vernau a déclaré qu'il travaillait toujours pour que les accusations soient retirées de son casier judiciaire. Freddie Cruz, un porte-parole de la police de Miami, a déclaré que le département avait lancé une enquête interne sur la gestion de l'affaire. La porte-parole de Truist, Carly DeBeikes, a déclaré que la société n'était "pas en mesure de discuter de questions ouvertes ou fermées liées à l'application de la loi". Vernau est blanc. Les sept autres personnes arrêtées à tort sont noires --- ce qui concerne les preuves du biais racial de la technologie, selon les groupes de défense des libertés civiles. Des tests fédéraux réalisés en 2019 ont montré que les Asiatiques et les Noirs étaient jusqu’à 100 fois plus susceptibles d’être mal identifiés par certains logiciels que les hommes blancs, peut-être parce que les photos utilisées pour entraîner certains algorithmes étaient initialement orientées vers les hommes blancs. Dans des entretiens avec le Post, les huit personnes connues pour avoir été arrêtées à tort ont déclaré que l’expérience avait laissé des cicatrices permanentes : perte d’emploi, relations endommagées, non-paiements de prêts automobiles et immobiliers. Certaines ont déclaré avoir dû envoyer leurs enfants chez un conseiller pour surmonter le traumatisme d’avoir vu leur mère ou leur père se faire arrêter sur la pelouse. La plupart ont également déclaré avoir développé une peur de la police. « Je savais que j’étais innocent, alors comment battre une machine ? » a déclaré Alonzo Sawyer, 58 ans, qui a été arrêté par les autorités du Maryland en 2022 pour une agression sur un chauffeur de bus qui s'est produite alors qu'il disait être chez sa belle-sœur. Sawyer dit qu'il n'est sorti de prison que parce que sa femme a conduit 90 miles pour affronter personnellement un agent de probation que la police avait fait pression pour qu'il confirme à tort que son mari était l'agresseur. Il s'est excusé et a rétracté sa déclaration. Scott Shellenberger, le procureur de l'État du comté de Baltimore, a déclaré dans une interview que Sawyer avait été "légitime" et n'aurait jamais dû être arrêté. ### Un coup de chance Le coup de chance de Gatlin est venu sous la forme de son défenseur public attitré, Brooke Lima, dont des décennies d'expérience dans la défense pénale l'avaient rendue méfiante à l'égard de la police. L'affaire du comté contre Gatlin n'avait aucun sens pour elle, car il n'avait aucune raison d'être dans le train ce matin-là. Gatlin possédait un camion et prenait rarement les transports en commun. Il dit qu'il pense qu'il était chez lui avec sa famille ce jour-là, mais il ne peut pas en être sûr et n'a rien pour le prouver car la police ne l'a contacté que huit mois après le crime. St. Louis utilise un système de reconnaissance faciale géré par un programme régional d'application de la loi multi-juridictionnel qui contient plus de 250 000 photos d'identité. Gatlin était dans le système, ayant été arrêté pour des infractions au code de la route ainsi qu'une accusation de cambriolage en 2018 ; l'accusation de cambriolage a ensuite été abandonnée parce que les procureurs n'ont pas pu produire suffisamment de preuves, comme le montrent les dossiers. Gatlin a refusé de commenter l'accusation, et les tribunaux du Missouri ne fournissent pas de dossiers sur les affaires qui ont été classées sans suite. "Cela m'a semblé tellement outrageusement dystopique", a déclaré Lima dans une interview. "Vous avez un moteur de recherche qui est déterminé à vous donner un résultat, et il ne va rechercher que les personnes qui ont été arrêtées pour quelque chose, et il va essayer de trouver quelqu'un parmi cette population limitée qui se rapproche le plus de cet extrait de demi-visage que vous avez trouvé." Lima n’avait jamais entendu parler de l’utilisation de la reconnaissance faciale par la police avant de la voir mentionnée dans le rapport de police de Gatlin. Elle a fait des recherches sur son fonctionnement, a parlé à un expert national de la technologie et s’est plongée dans le « terrier du lapin Westlaw », en recherchant les quelques affaires d’appel dans tout le pays dans lesquelles la technologie a commencé à être mentionnée. Elle a été perturbée par l’idée que « le gouvernement s’appuie sur une machine pour identifier quelqu’un comme suspect potentiel d’un crime ». En examinant les vidéos de surveillance des agresseurs du quai de la gare – qui ont été filmées par une petite caméra fixée sur le côté d’un bus Metro garé à la gare ce matin-là – Lima en est venue à croire, et a finalement plaidé devant le tribunal, que Shute et Welle s’étaient appuyés sur une image qui n’était probablement pas assez claire pour produire une correspondance fiable. Le manuel d’utilisation du programme de technologie de reconnaissance de photos d’identité de St. Louis stipule qu’une image « doit être de haute qualité pour que le système fournisse des candidats probables précis », et pourtant les détectives avaient soumis une photo d’un homme dont le visage était à peine reconnaissable. La vidéo de la caméra corporelle montrant la séance d'identification photographique de Feldman n'a été révélée que plusieurs mois après l'arrestation de Gatlin, lorsqu'un officier a mentionné lors d'une déposition qu'il avait enregistré l'épisode. Chris King, porte-parole du procureur du comté de St. Louis, a déclaré que l'avocat affecté à cette affaire avait appris l'existence de la vidéo pour la première fois à partir de cette déposition - même si l'enregistrement était explicitement mentionné dans un rapport de police fourni aux procureurs et aux avocats de la défense après l'arrestation. Après que le procureur a eu connaissance de la vidéo et l'a demandée à la police, a déclaré King, elle a été remise à la défense. Le juge du tribunal de circuit de St. Louis, Brian May, qui a présidé l'affaire, l'a visionnée lors d'une audience en février 2024 et a immédiatement décidé que l'identification ne pouvait pas être utilisée au tribunal. Welle et Shute avaient rompu avec les pratiques largement acceptées pour mener des séances d'identification photographiques justes et impartiales, a constaté May. Ils avaient poussé Feldman à faire une déclaration même s'il avait déclaré ne pas se souvenir des auteurs. Ils ont invité un troisième officier à être un administrateur impartial, selon le protocole, mais Welle a interféré dans le processus en suggérant quelle photo appartenait à leur suspect, a déterminé le juge. "Je pense vraiment que le détective était en quelque sorte... trop zélé pour pouvoir essayer de résoudre ce crime", a déclaré May, selon une transcription du tribunal. Au cours de l'audience, Lima a confronté Shute aux mesures qu'il avait prises pour arrêter Gatlin : l'image de surveillance, le scan de reconnaissance faciale, la sélection inappropriée de photos et la déclaration du témoin. "Pensez-vous que c'est un moyen fiable d'obtenir une identification légitime d'un suspect ?" a-t-elle demandé. "Je ne le pense pas", a déclaré Shute. En l'absence de preuve contre lui, les procureurs ont abandonné toutes les charges contre Gatlin en mars. Cette semaine, il a poursuivi les agences et les officiers responsables de son arrestation, demandant des dommages et intérêts non spécifiés. Les agences et les officiers n'ont pas immédiatement répondu à une demande de commentaires. Pendant ce temps, Lima --- fraîchement formé à l'utilisation de la technologie de reconnaissance faciale par la police --- reste préoccupé par le fait que l'excès de confiance de la police et le manque de surveillance entraîneront davantage d'arrestations injustifiées. « Que dit-on aux services de police sur la manière dont ils peuvent et doivent utiliser cette mesure ? », a-t-elle demandé. « Et qui fait respecter cette mesure ? »