Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1400

Incidents associés

Incident 7411 Rapports
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Loading...
Un homme arrêté à tort poursuit la police de Detroit pour un faux match de reconnaissance faciale
washingtonpost.com · 2021

Un homme du Michigan a poursuivi la police de Detroit après avoir été arrêté à tort et identifié à tort comme un suspect de vol à l'étalage par le logiciel de reconnaissance faciale du département dans l'un des premiers procès du genre à remettre en question le risque de la technologie controversée de jeter des innocents en prison.

Robert Williams, un père de 43 ans dans la banlieue de Detroit à Farmington Hills, a été arrêté l'année dernière pour avoir pris des montres dans un magasin Shinola après que les enquêteurs de la police ont utilisé une recherche par reconnaissance faciale des images de la caméra de surveillance du magasin qui ont identifié lui comme le voleur.

Les procureurs ont abandonné l'affaire moins de deux semaines plus tard, arguant que les agents s'étaient appuyés sur des preuves insuffisantes. Le chef de la police, James Craig, s'est par la suite excusé pour ce qu'il a qualifié de travail d'enquête « de mauvaise qualité ». Williams, qui a déclaré qu'il rentrait du travail en voiture lorsque le vol de 2018 s'était produit, a été interrogé par des détectives et détenu pendant 30 heures avant sa libération.

Le cas de Williams a déclenché un tollé public à propos de l'utilisation croissante par la police d'une technologie qui, selon les recherches, identifie souvent à tort les personnes de couleur. Son procès est au moins le troisième aux États-Unis intenté par des hommes noirs pour soulever des doutes sur l'exactitude du logiciel.

L'affaire pourrait accroître les défis juridiques pour une technologie qui n'est en grande partie pas réglementée dans le pays, alors même qu'elle est devenue un outil d'enquête prolifique utilisé par les forces de police et les enquêteurs fédéraux. Alors que le logiciel a été interdit par plus d'une douzaine de villes à travers le pays, il a été cité dans un nombre croissant d'affaires pénales, y compris dans l'enquête historique sur les émeutiers au Capitole des États-Unis le 6 janvier.

Les avocats de Williams ne l'ont pas rendu disponible pour commenter mardi. Mais Williams a écrit dans le Washington Post l'année dernière que l'épisode l'avait profondément ébranlé, en partie parce que ses jeunes filles l'avaient vu menotté dans son allée et mis dans une voiture de police après son retour du travail.

"Comment expliquer à deux petites filles qu'un ordinateur s'est trompé, mais que la police l'a quand même écouté ?" il a écrit. "Comme tout autre homme noir le serait, je devais réfléchir à ce qui pourrait arriver si je posais trop de questions ou si je montrais ouvertement ma colère - même si je savais que je n'avais rien fait de mal."

sergent. Nicole Kirkwood, une porte-parole de la police de Detroit, a déclaré que le département ne commentait pas les litiges en cours. Mais elle a souligné les commentaires de Craig l'année dernière dans lesquels le chef de la police a déclaré que les échecs de l'affaire "n'avaient rien à voir avec la technologie, mais avaient certainement tout à voir avec un travail d'enquête médiocre".

"C'était clairement un travail d'enquête bâclé et bâclé. Il n'y a pas d'autre moyen pour moi de le dire que de cette façon », a déclaré Craig lors d'une réunion du conseil des commissaires de police de Detroit en juin dernier, citée dans le procès. "Si vous vous fiez uniquement à la technologie de reconnaissance faciale, il y a une forte probabilité qu'elle soit mal identifiée."

Kirkwood a déclaré au Post dans un communiqué l'année dernière que le département ne procédait pas à des arrestations uniquement sur la base d'une recherche par reconnaissance faciale et que, dans le cas de Williams, les enquêteurs avaient examiné la vidéo, interrogé des témoins, effectué une série de photos et soumis des preuves aux procureurs, qui ont recommandé des accusations contre Williams pour fraude au détail au premier degré.

Les procureurs du comté de Wayne ont déclaré plus tard que le résultat de la reconnaissance faciale n'était pas une preuve suffisante pour porter des accusations et que le responsable de la sécurité du magasin avait montré que la gamme de photos n'avait pas été dans le magasin pendant le crime.

"Cette affaire n'aurait pas dû être publiée sur la base de l'enquête du DPD, et nous nous excusons pour cela", a déclaré le procureur Kym L. Worthy dans un communiqué. «Heureusement, il a été rejeté de la propre initiative de notre bureau. Cela ne compense en rien les heures que M. Williams a passées en prison.

L'identification de Williams en tant que voleur s'est produite après que les détectives de Detroit ont envoyé une image floue et faiblement éclairée d'une caméra de surveillance à la police de l'État du Michigan, qui a effectué une recherche de reconnaissance faciale indiquant que l'ancienne photo du permis de conduire de Williams était une correspondance possible.

Mais le "rapport d'enquête" de la police d'État indiquait également, en toutes lettres majuscules, que le document n'était pas une identification positive ou une cause probable suffisante pour une arrestation. Le détective a néanmoins soumis la photo aux procureurs comme preuve à l'appui d'un mandat d'arrêt.

La poursuite civile fait valoir que les droits de Williams ont été violés en vertu du quatrième amendement, qui interdit les fouilles policières « déraisonnables », ainsi qu'une loi de l'État sur les droits civils interdisant la discrimination raciale. Le procès demande un montant non spécifié pour les dommages ainsi que des changements de politique pour le département de police de Detroit, qui continue d'utiliser le logiciel.

Williams est représenté par des étudiants avocats de la Civil Rights Litigation Initiative de la faculté de droit de l'Université du Michigan, ainsi que par des avocats de l'American Civil Liberties Union et de la filiale du groupe de défense du Michigan.

L'un des étudiants avocats, Jeremy Shur, a déclaré mardi que les filles de Williams, âgées de 3 et 7 ans, avaient été "traumatisées" par l'incident. "Quand ils voient la police, ils se demandent s'ils emmènent papa", a déclaré Shur.

La précision du logiciel dépend fortement de la qualité de l'image : les photos floues, granuleuses ou sombres donnent souvent de mauvais résultats. Mais même les algorithmes utilisés dans une recherche de reconnaissance faciale peuvent offrir un large éventail d'efficacité : plusieurs de ceux testés dans une étude fédérale de 2019 étaient jusqu'à 100 fois plus susceptibles d'identifier à tort le visage d'une personne noire ou asiatique, par rapport à une personne blanche. .

Le procès de Williams est le deuxième accusant la police de Detroit d'avoir fait une fausse reconnaissance faciale: en septembre, un homme de 26 ans nommé Michael Oliver a poursuivi le département, affirmant que sa fausse arrestation pour vol en 2019 l'avait amené à perdre son emploi et à dépenser trois jours de prison.

Le même détective, Donald Bussa, a enquêté sur Oliver et Williams et est nommé dans les deux procès. Craig a critiqué l'utilisation par Bussa d'une photo "floue" et a déclaré que le département avait travaillé pour modifier les politiques de reconnaissance faciale qui ont conduit à l'arrestation.

Dans un troisième procès, intenté en janvier, un homme du nom de Nijer Parks a poursuivi la police et les procureurs du New Jersey, affirmant qu'il avait été détenu pendant 10 jours après avoir été faussement accusé d'avoir volé dans une boutique de cadeaux d'hôtel en 2019. Les trois affaires sont en cours. .

Les défenseurs de la technologie ont déclaré qu'elle devrait être utilisée uniquement pour générer des pistes pour la police, et non comme le seul élément de preuve, et que les agents ne devraient pas trop se fier à ses résultats ou l'appliquer à tous les crimes de faible ampleur. La politique du département de Detroit a depuis été modifiée pour autoriser l'utilisation d'un logiciel de reconnaissance faciale uniquement dans les cas de crimes violents.

Mais les critiques soutiennent que les agents qui accordent trop de confiance aux résultats des systèmes – ou qui modifient les images de recherche dans l'espoir d'obtenir de meilleurs résultats, comme les chercheurs l'ont trouvé dans certains services de police – pourraient finir par imposer la charge de la preuve à des innocents. des personnes à qui on ne peut pas dire quelles techniques d'enquête ont servi de base à leur arrestation.

La police des États de Detroit et du Michigan a un contrat avec une société basée en Caroline du Sud, DataWorks Plus, qui fabrique des logiciels de reconnaissance faciale. La société n'a pas immédiatement répondu aux demandes de commentaires.

Le département de Detroit fait également partie des centaines de services de police qui ont utilisé Clearview AI, un outil de reconnaissance faciale qui effectue une recherche dans une vaste base de données de photos prises sur Internet, selon un rapport de BuzzFeed News plus tôt ce mois-ci basé sur des données provenant d'une source confidentielle. . Ni la police de Detroit ni Clearview n'ont confirmé le rapport, et il ne semble pas que Clearview ait été utilisé dans le cas de Williams.

Clare Garvie, associée principale au Centre sur la confidentialité et la technologie de Georgetown Law, qui a étudié les logiciels de reconnaissance faciale et n'est pas impliquée dans le procès, a déclaré que les poursuites avaient aidé à faire la lumière sur les pannes d'enquête et technologiques qui, autrement, resteraient invisibles.

Mais elle s'est dite préoccupée par le fait que la lenteur des procédures judiciaires et une approche disparate de la réglementation pourraient conduire à davantage de cas d'identification erronée par reconnaissance faciale avant que les dommages existants ne puissent être résolus.

Garvie craignait également que les affaires ne transfèrent les coûts des échecs de la police aux personnes qui avaient été faussement identifiées – et au grand public, qui vivent tous deux dans la peur des fausses arrestations et finissent par payer pour défendre ou régler les affaires devant les tribunaux.

"Il incombe à quelqu'un après coup, qui a déjà été blessé par une erreur d'identification, d'informer le public de ce qui lui est arrivé", a-t-elle déclaré. Ensuite, "le contribuable porte le fardeau de l'erreur".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd