Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4154

Incidents associés

Incident 8152 Rapports
Police Use of Facial Recognition Software Causes Wrongful Arrests Without Defendant Knowledge

Loading...
La police révèle rarement l'utilisation de la reconnaissance faciale malgré les fausses arrestations
washingtonpost.com · 2024

Des centaines d’Américains ont été arrêtés après avoir été liés à un crime par un logiciel de reconnaissance faciale, a révélé une enquête du Washington Post, mais beaucoup ne le savent jamais car la police révèle rarement son utilisation de cette technologie controversée. Les services de police de 15 États ont fourni au Post des documents rarement consultés documentant leur utilisation de la reconnaissance faciale dans plus de 1 000 enquêtes criminelles au cours des quatre dernières années. Selon les rapports d’arrestation dans ces affaires et les entretiens avec les personnes arrêtées, les autorités ont systématiquement omis d’informer les accusés de leur utilisation du logiciel – les privant ainsi de la possibilité de contester les résultats d’une technologie émergente sujette à des erreurs, en particulier lors de l’identification des personnes de couleur. En fait, les dossiers montrent que les policiers ont souvent masqué leur recours au logiciel dans les rapports publics, affirmant qu’ils avaient identifié les suspects « par des moyens d’enquête » ou qu’une source humaine telle qu’un témoin ou un policier avait procédé à l’identification initiale. À Evansville, dans l'Indiana, par exemple, la police a identifié un homme qui a battu un inconnu dans la rue grâce à ses bras tatoués, ses cheveux longs et ses photos de détention antérieure. À Pflugerville, au Texas, la police a appris le nom d'un homme qui a contribué au vol de marchandises d'une valeur de 12 500 dollars à Ulta Beauty « en utilisant des bases de données d'enquête ». Ces deux suspects ont été identifiés à l'aide de la reconnaissance faciale, selon des dossiers internes de la police - des informations qui n'ont jamais été partagées avec les accusés, selon eux ou leurs avocats. Une porte-parole de Pflugerville a refusé de répondre aux questions sur cette affaire. La police d'Evansville n'a pas répondu aux demandes de commentaires. Le Post a demandé des dossiers à plus de 100 services de police qui ont publiquement reconnu utiliser la reconnaissance faciale ; seulement 30 ont fourni des dossiers d'arrestation pour des cas dans lesquels ils ont utilisé le logiciel. La plupart ont refusé de répondre aux questions sur leur utilisation de la technologie. Quelques-uns ont dit qu'ils l'utilisaient pour identifier des pistes potentielles mais ne procédaient jamais à une arrestation en se basant uniquement sur une correspondance informatique, ils ne sont donc pas obligés de le divulguer aux personnes arrêtées. Le département de police de Coral Springs, dans le sud de la Floride, demande aux officiers de ne pas révéler l'utilisation de la reconnaissance faciale dans les rapports écrits, selon le chef adjoint des opérations Ryan Gallagher. Il a déclaré que les techniques d'enquête sont exemptées des lois de divulgation publique de Floride. "Veuillez ne pas documenter cette piste d'enquête", indique un message du département ajouté à chaque résultat de recherche de photo. Le département révélerait la source de l'indice d'enquête si elle était demandée dans le cadre d'une procédure pénale, a ajouté Gallagher. Les avocats de la défense et les groupes de défense des droits civiques soutiennent que les gens ont le droit de savoir s'il existe un logiciel qui les identifie dans le cadre d'une enquête criminelle, en particulier une technologie qui a conduit à de fausses arrestations. La fiabilité de l'outil a été contestée avec succès dans une poignée de procès récents à travers le pays, ce qui a conduit certains avocats de la défense à affirmer que la police et les procureurs tentent intentionnellement de soustraire la technologie à l'examen des tribunaux. La police « veut probablement éviter le litige entourant la fiabilité de la technologie », a déclaré Cassie Granos, une avocate adjointe de la défense publique du Minnesota. Cette année, l'un de ses collègues a aidé à persuader un juge d'exclure un résultat de reconnaissance faciale du dossier de l'État contre un voleur présumé parce que, selon le juge, le logiciel ne « produit pas systématiquement des résultats précis ». L'identification erronée par ce type de logiciel a joué un rôle dans l'arrestation injustifiée d'au moins sept Américains innocents, dont six étaient noirs, selon les dossiers de police et de justice examinés par le Post et des reportages dans d'autres médias. Les charges contre tous ces individus ont ensuite été abandonnées. Certains ont été informés lors des interrogatoires ou dans des documents fournis à leurs avocats de la défense pénale qu'ils avaient été identifiés par l'IA. D'autres n'ont appris l'utilisation du logiciel qu'après que les agents ont mentionné en passant que « l'ordinateur » les avait trouvés, ou qu'il y avait une « correspondance positive ». Parmi eux se trouvait Quran Reid, qui a passé six jours en prison en 2022 pour avoir prétendument utilisé des cartes de crédit volées pour acheter des sacs à main de luxe en Louisiane – un État qu’il a déclaré n’avoir jamais visité. Un détective du bureau du shérif de la paroisse de Jefferson a écrit dans une déclaration sous serment qu’il avait été « conseillé par une source crédible » de regarder Reid, alors âgé de 28 ans et vivant à Atlanta. En fait, Reid a été identifié par un logiciel de reconnaissance faciale qui a été alimenté par une photo de la scène du crime. La déclaration sous serment ne dit rien sur l’utilisation de la technologie ; Reid l’a appris par son avocat pendant son incarcération. « Pourquoi moi ? Pourquoi m’as-tu choisi parmi tous les autres ? », se souvient Reid, se rappelant avoir pensé lors de son arrestation. « Vous ne savez même pas d’où ça vient », a-t-il déclaré dans une interview au Post. L’affaire a été classée après que son avocat a souligné que Reid avait un grain de beauté au visage qui n’était pas présent sur l’image de l’agresseur. Reid a depuis poursuivi le shérif et le détective. Le département du shérif n'a pas répondu aux demandes de commentaires et il n'est pas clair si le vol pour lequel Reid a été arrêté a été résolu. Les logiciels de reconnaissance faciale fonctionnent en soumettant une image d'une scène de crime, souvent capturée par une caméra de surveillance vidéo, à une base de données de photos, souvent issues de photos d'identité et de permis de conduire. Le logiciel utilise l'intelligence artificielle pour comparer le visage de la personne sur « l'image de test » aux visages de la base de données. Il renvoie ensuite des photos de personnes qu'il a identifiées et qui sont d'apparence similaire. Comme il n'existe pas de consensus scientifique sur ce qui constitue une correspondance, les fabricants de logiciels varient considérablement dans le nombre de résultats qu'ils affichent et dans quelle mesure chaque résultat ressemble à la photo de test. learview AI, un fabricant populaire de logiciels de reconnaissance faciale pour la police, compare les images de test à sa base de données de milliards d'images récupérées sur les réseaux sociaux et les sites Web publics --- ce qui signifie que toute personne possédant une photo n'importe où sur le Web pourrait être impliquée dans une enquête criminelle si elle ressemble au coupable. Les résultats de recherche de Clearview produits comme preuve dans une affaire d'agression dans le comté de Cuyahoga, dans l'Ohio, comprenaient une photo de la légende du basket-ball Michael Jordan et une caricature d'un homme noir. Dans une déclaration envoyée par courrier électronique, Jack Mulcaire, directeur juridique de Clearview, a noté que les deux premiers résultats du logiciel dans cette recherche concernaient l'auteur, qui a ensuite plaidé coupable. L'entreprise a refusé de répondre à d'autres questions sur sa technologie. Les tests fédéraux des meilleurs logiciels de reconnaissance faciale ont révélé que les programmes sont plus susceptibles d'identifier de manière erronée les personnes de couleur, les femmes et les personnes âgées, car leurs visages ont tendance à apparaître moins fréquemment dans les données utilisées pour entraîner les algorithmes, selon Patrick Grother, qui supervise les tests biométriques au National Institute of Standards and Technology, basé à Washington. Environ 2 millions de personnes de couleur et 2 millions de femmes sont arrêtées aux États-Unis chaque année, selon les données fédérales. Les contrats de Clearview avec plusieurs services de police, obtenus par le Post, indiquent que le programme n'est pas conçu « comme un système à source unique pour établir l'identité d'un individu » et que « les résultats de recherche produits par l'application Clearview ne sont pas destinés ni autorisés à être utilisés comme preuve admissible devant un tribunal ou tout dossier judiciaire ». Les procureurs sont tenus d'informer les accusés de toute information qui aiderait à prouver leur innocence, à réduire leur peine ou à nuire à la crédibilité d'un témoin témoignant contre eux. Lorsque les procureurs ne divulguent pas ces informations - ce que l'on appelle une « violation Brady » d'après la décision de la Cour suprême de 1963 qui l'impose - le tribunal peut déclarer un procès nul, annuler une condamnation ou même sanctionner le procureur. Aucune loi fédérale ne réglemente la reconnaissance faciale et les tribunaux ne s'accordent pas sur le fait que les identifications par IA soient soumises aux règles Brady. Certains États et villes ont commencé à exiger une plus grande transparence autour de la technologie, mais même dans ces endroits, la technologie n'est pas utilisée aussi souvent ou n'est pas divulguée, selon des entretiens et des demandes de documents publics. En juin 2023, un tribunal d'appel composé de trois juges du New Jersey a statué qu'un accusé avait le droit d'être informé de l'utilisation de la technologie de reconnaissance faciale, affirmant que la « véracité du logiciel n'a pas été testée ou jugée fiable sur la base de preuves par aucun tribunal du New Jersey ». La technologie avait été utilisée pour aider à identifier Francisco Arteaga comme l'auteur d'un vol à main armée en 2019 à West New York, dans le New Jersey. Un tribunal inférieur avait rejeté les demandes d'informations de l'avocat d'Arteaga sur la technologie, notamment le taux d'erreur de l'algorithme, la liste complète des correspondances possibles et les qualifications de la personne qui l'avait choisi comme la correspondance la plus probable. La décision a créé un précédent dans cet État, mais les autres États ne sont pas tenus de s'y conformer. Informé des conclusions du Post, le sénateur Cory Booker (D-N.J.) a déclaré que « l'utilisation de l'IA par les forces de l'ordre qui conduit à des accusations criminelles devrait être divulguée pour protéger les droits constitutionnels et garantir un procès équitable ». Booker dit qu'il aimerait voir une loi adoptée pour exiger la divulgation, notant que « la liberté des gens est littéralement en jeu ». À Miami, la police conserve des données détaillées depuis 2020 sur les résultats des recherches par reconnaissance faciale, mais a rarement partagé ces informations avec les accusés, selon l'analyse du Post des journaux de logiciels internes et des dossiers judiciaires correspondants. Au cours des quatre dernières années, le département de police de Miami a effectué 2 500 recherches par reconnaissance faciale dans le cadre d'enquêtes qui ont conduit à au moins 186 arrestations et plus de 50 condamnations. Parmi les personnes arrêtées, seulement 1 sur 16 a été informée de l'utilisation de la technologie - moins de 7 % - selon une étude du Post des rapports publics et des entretiens avec certaines personnes arrêtées et leurs avocats. Le département de police a déclaré que dans certains de ces cas, la technologie a été utilisée à d'autres fins que l'identification, comme la recherche des flux de médias sociaux d'un suspect, mais n'a pas indiqué dans combien de cas cela s'est produit. Carlos J. Martinez, le principal défenseur public du comté, a déclaré qu'il n'avait aucune idée du nombre de ses clients de Miami identifiés par reconnaissance faciale jusqu'à ce que le Post lui présente une liste. « L'un des principes fondamentaux de notre système judiciaire est la procédure régulière, c'est-à-dire savoir quelles preuves sont contre vous et pouvoir contester les preuves qui sont contre vous », a déclaré Martinez. « Lorsque cela vous est caché, c'est un gouvernement tout-puissant qui peut nous piétiner. » Après avoir examiné les conclusions du Post, la police de Miami et les procureurs locaux ont annoncé leur intention de réviser leurs politiques pour exiger une divulgation plus claire dans chaque cas impliquant la reconnaissance faciale. En janvier, le chef adjoint de la police de Miami, Armando Aguilar, a déclaré à un panel du Congrès sur l'IA dans l'application de la loi que son département était « le premier à être complètement transparent sur » l'utilisation de la reconnaissance faciale. Mais en juillet, après avoir examiné les conclusions du Post, Aguilar a reconnu que les policiers n'avaient peut-être pas toujours informé les procureurs locaux de l'utilisation de la reconnaissance faciale. Aguilar a déclaré que le département donnerait aux procureurs toutes les informations sur l'utilisation de la reconnaissance faciale, dans les affaires passées et futures, mais laisserait aux procureurs le soin de décider ce qu'ils divulguent aux accusés. Il a déclaré que le département commencerait également à former les officiers à toujours divulguer l'utilisation de la reconnaissance faciale dans les rapports d'incident. Katherine Fernandez Rundle, procureure de l'État du comté de Miami Dade, a déclaré dans une interview qu'avant d'être contactée par le Post, la police de Miami n'avait pas informé son bureau de son utilisation de la reconnaissance faciale dans la grande majorité des cas. Son bureau a récemment demandé à tous les services de police locaux d'inclure des informations sur la reconnaissance faciale dans les rapports publics et a déclaré que les procureurs seraient proactifs en demandant à la police si les identifications ont été faites avec l'IA, a déclaré Ed Griffith, un porte-parole du procureur. Rundle a reconnu que des études ont soulevé des inquiétudes quant à l'exactitude et l'équité de la technologie. "Vous ne pouvez pas vous fier à cela uniquement pour une cause probable", a-t-elle déclaré. Cependant, son bureau a déclaré qu'il ne pouvait pas s'engager à examiner les 186 cas identifiés par le Post. Dans un courriel, la procureure adjointe en chef de l'État, Kathleen Hoague, a déclaré qu'il était « plus important pour nous de travailler sur une politique pour aller de l'avant ». Gordon Weekes, le défenseur public du comté de Broward, juste au nord de Miami, a déclaré que ses avocats rencontrent rarement des cas dans lesquels la reconnaissance faciale est divulguée, bien que de nombreuses agences de police locales aient accès à de tels programmes. « Comment peut-il y avoir des freins et contrepoids ? », a déclaré Weekes. « Si les forces de l'ordre doivent adopter une nouvelle technologie, il faudra mettre en place des mesures de protection pour qu'elle ne déraille pas et ne commence pas à être abusive. » La plupart des services de police qui ont fourni des dossiers au Post n'ont pas répondu ou ont refusé de répondre aux questions sur les raisons pour lesquelles ils n'informent pas les gens de l'utilisation de la reconnaissance faciale. Cinq d'entre eux ont défendu la pratique de ne pas divulguer les identifications par IA. « Nos détectives utilisent de nombreux outils, bases de données et techniques au cours d'une enquête, dont Clearview », a déclaré Jessica Taylor, porte-parole de la ville de Pflugerville, dans un courriel. « Il n’est pas protocolaire de lister chacun de ces outils, bases de données ou techniques dans un rapport. » La police d’Arvada, dans le Colorado, a fourni des documents montrant qu’elle a divulgué chaque cas d’utilisation de la reconnaissance faciale depuis que l’État a adopté une loi l’exigeant en 2022. Au moins 21 villes et comtés et l’État du Vermont interdisent l’utilisation d’outils de reconnaissance faciale par les forces de l’ordre en raison de préoccupations concernant leur précision et leur potentiel de préjugés raciaux. Cependant, dans au moins deux de ces endroits, Austin et San Francisco, les agents ont secrètement sollicité l’aide des forces de l’ordre voisines qui ne sont pas soumises aux mêmes règles, a rapporté le Post plus tôt cette année. En réponse au rapport du Post, Austin a récemment réécrit sa politique pour interdire cette pratique. Les accusés arrêtés après une recherche par reconnaissance faciale ont déclaré qu'ils méritaient d'avoir la chance de faire face à leur accusateur, même lorsqu'il s'agit d'une intelligence artificielle. Malgré une décision de la cour d'appel du New Jersey selon laquelle Arteaga avait le droit d'obtenir des informations sur sa recherche par reconnaissance faciale, le NYPD, qui a mené la recherche pour la police du New Jersey, a refusé de les fournir. Les procureurs du New Jersey ont réduit les charges contre Arteaga en conséquence. À ce moment-là, Arteaga avait passé quatre ans en prison en attendant son procès. Bien qu'il maintienne son innocence, il a déclaré avoir plaidé coupable de vol au deuxième degré pour retrouver ses deux enfants. Caitlin Mota, porte-parole du procureur du comté de Hudson, a refusé de commenter. Dans une interview, Arteaga a déclaré qu'il n'avait « aucun problème » avec l'utilisation par la police d'outils comme la reconnaissance faciale, mais qu'ils devraient le divulguer et partager le fonctionnement du logiciel. « Lorsque vous avez affaire à un logiciel dont le code source n'est pas accessible », a-t-il déclaré, « alors comment est-ce juste ? » ### À propos de cet article Le Washington Post a passé six mois à demander des dossiers internes sur la reconnaissance faciale à plus de 100 services de police du pays qui avaient publiquement indiqué utiliser cette technologie pour identifier des suspects. Plus de 40 d'entre eux ont fourni des données sur leur utilisation du logiciel, dont 30 ont fourni des rapports d'incidents connexes et des mandats d'arrêt correspondant à plus de 1 000 cas au cours des quatre dernières années. Le Washington Post a ensuite recherché des dossiers judiciaires pour déterminer si des documents publics révélaient l'utilisation de cette technologie. Le Post a également contacté les accusés ou leurs avocats lorsque leurs coordonnées étaient disponibles pour déterminer s'ils avaient été informés de l'utilisation de cette technologie. La grande majorité d'entre eux ont déclaré qu'ils n'avaient aucune idée que la reconnaissance faciale avait été utilisée pour les identifier. Tout le monde n'a pas pu être contacté, il est donc possible que d'autres accusés aient été informés de l'existence de la reconnaissance faciale, même si elle n'apparaît pas dans les documents publics. Le Post a constaté que la police n'indique pas toujours clairement son utilisation du logiciel. Par exemple, dans les données fournies par le département de police de Miami, les dossiers montrent que les victimes connaissaient les suspects dans certains cas où la reconnaissance faciale était répertoriée comme menant à une « identification positive ». Le département a déclaré que les policiers utilisent parfois des outils de reconnaissance faciale pour localiser le profil de médias sociaux d'un suspect connu et d'autres informations numériques. Édité par Evelyn Larrubia. Jeremy Merrill et Nate Jones ont contribué à ce rapport.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd