Incidents associés
En juillet 2019, Michael Oliver, 26 ans, se rendait au travail à Ferndale, dans le Michigan, lorsqu'une voiture de police l'a arrêté. L'officier l'a informé qu'il y avait un mandat d'arrêt contre lui.
"Je pensais qu'il plaisantait parce qu'il riait", se souvient Oliver. "Mais dès qu'il m'a sorti de ma voiture et m'a menotté, j'ai su que ce n'était pas une blague." Peu de temps après, Oliver a été transféré à la garde à vue de Detroit et accusé de vol.
Des mois plus tard, lors d'une audience préliminaire, il verrait enfin les preuves contre lui - une seule capture d'écran d'une vidéo de l'incident, prise sur le téléphone portable de l'accusateur. Oliver, qui a un visage de forme ovale et un certain nombre de tatouages, partageait peu de caractéristiques physiques avec la personne sur la photo.
"Il ne me ressemblait en rien", a déclaré Oliver. "Il n'avait même pas de tatouages." Le juge a accepté et l'affaire a été rapidement classée.
Michael Oliver a été accusé à tort d'un crime basé sur la technologie de reconnaissance faciale. Nouvelles de la SCB
C'est près d'un an plus tard qu'Oliver a appris que son arrestation injustifiée était basée sur une correspondance erronée utilisant la [reconnaissance faciale] controversée (https://www.cbsnews.com/news/facial-recognition-systems-racism-protests-police-bias /) La technologie. La police a pris une image fixe d'une vidéo de l'incident et l'a exécutée via un logiciel fabriqué par une société appelée DataWorks Plus. Le logiciel mesure divers points sur le visage d'une personne - l'espace entre ses yeux, la pente de son nez - pour générer une "empreinte faciale" unique. Le département de police de Detroit vérifie ensuite une éventuelle correspondance dans une base de données de photos; le système peut accéder à des milliers de photos ainsi qu'à la base de données de photos de permis de conduire de l'État du Michigan.
Le visage d'Oliver est apparu comme un match, mais ce n'était pas lui, et il y avait beaucoup de preuves pour prouver que ce n'était pas le cas.
La technologie de reconnaissance faciale est devenue monnaie courante dans notre société. Il est utilisé pour déverrouiller nos téléphones portables et pour améliorer la sécurité des aéroports. Mais beaucoup la considèrent comme une technologie défectueuse qui a le potentiel de causer de graves dommages. Il identifie à tort les visages noirs et bruns à des taux nettement plus élevés que leurs homologues blancs, dans certains cas près de 100 % du temps. Et cela est particulièrement pertinent dans une ville comme Detroit, où presque 80 % des habitants sont noirs.
"Je pense que la perception que les données sont neutres nous a causé beaucoup de problèmes", a déclaré Tawana Petty, une activiste numérique qui travaille avec le Detroit Equity Action Lab. "Les algorithmes sont programmés par des hommes blancs à l'aide de données recueillies à partir de politiques racistes. Il reproduit les préjugés raciaux qui commencent par les humains, puis sont [programmés dans la technologie] (https://www.cbsnews.com/news/artificial-intelligence-racial- profilage-2-0-cbsn-originaux-documentaire/). »
Petty souligne que plus d'une douzaine d'autres villes, dont San Francisco et Boston, ont interdit cette technologie en raison de préoccupations concernant les libertés civiles et la vie privée. Elle a plaidé pour une interdiction similaire à Detroit. Au lieu de cela, la ville a voté en octobre pour renouveler le contrat avec DataWorks.
Même les partisans reconnaissent que le système a un taux d'erreur élevé. Le chef de la police de Detroit, James Craig a déclaré en juin, "Si nous devions simplement utiliser la technologie par elle-même, pour identifier quelqu'un" - ce qui, a-t-il noté, serait contraire à la politique du ministère - "je dirais que 96% du temps, cela entraînerait une mauvaise identification."
La police de Detroit utilise un réseau de caméras de surveillance et une technologie de reconnaissance faciale. Nouvelles de la SCB
Le cas d'Oliver fait suite à l'arrestation injustifiée de Robert Williams, 42 ans, qui a également été arrêté en 2019 pour un crime qu'il n'a pas commis, basé sur le même logiciel algorithmique.
Petty pense qu'avec cette technologie, les coûts humains dépassent de loin les avantages. "Oui, l'innovation est inévitable", a-t-elle déclaré. "Mais ce ne serait pas la première fois que nous renoncions à quelque chose dont nous réalisons qu'il n'était pas bon pour la plus grande partie de l'humanité."
Oliver ne s'est toujours pas remis des retombées de son arrestation injustifiée. "J'ai manqué le travail pour les dates du procès. Ensuite, j'ai perdu mon emploi." Sans revenu, il ne pouvait pas payer le loyer de sa maison ou de sa voiture, et bientôt il les a également perdus. Un an plus tard, il est effectivement sans abri, surfant sur le canapé avec ses amis et sa famille et cherche désespérément un nouvel emploi.
En juillet, Oliver a intenté une action en justice contre la ville de Detroit pour au moins 12 millions de dollars. Le procès accuse la police de Detroit d'utiliser "une technologie de reconnaissance faciale défaillante sachant que la science de la reconnaissance faciale a un taux d'erreur substantiel parmi les personnes noires et brunes d'origine ethnique, ce qui conduirait à l'arrestation et à l'incarcération injustifiées de personnes appartenant à cette population ethnique".
Le service de police a reconnu que l'enquêteur principal sur l'affaire n'avait pas fait preuve de diligence raisonnable avant de procéder à l'arrestation.
"Nous avons envoyé l'image au détective. Mais à partir de là, le détective doit sortir et regarder la photo et la comparer à toute autre information", a déclaré Andrew Rutebuka, chef de la Crime Intelligence Unit qui utilise la technologie. Les enquêteurs sont formés pour suivre les faits, comme ils le feraient dans tout autre cas, par exemple en confirmant où se trouvait la personne au moment où le crime s'est produit ou en comparant tout autre dossier. "Le logiciel fournit juste la piste", a déclaré Rutebuka. "Le détective doit faire son travail et faire un suivi."
Depuis l'arrestation d'Oliver, le département de police de Detroit a révisé sa politique sur l'utilisation des logiciels de reconnaissance faciale. Maintenant, il ne peut être utilisé que dans le cas d'un crime violent. Detroit a le [quatrième plus haut](https://www.detroitnews.com/story/news/local/detroit-city/2020/09/28/detroit-violent-crime-leads-nation-flint-big-drop/ 3536062001/) taux de meurtres dans le pays et le département soutient que le programme aide à résoudre des cas qui, autrement, deviendraient froids.
Certaines familles locales soutiennent la technologie. Marsheda Holloway attribue au système le mérite d'avoir aidé à démêler le meurtre de son cousin Denzel, 29 ans, en retraçant où il est allé et avec qui il était avant d'être tué.
"Je ne veux jamais qu'une autre famille traverse ce que moi et ma famille avons vécu", a-t-elle déclaré. "Si la reconnaissance faciale peut aider, nous en avons tous besoin. Tout le monde a besoin de quelque chose."
Mais Michael Oliver n'est pas sûr que le logiciel en vaille la peine. "Avant, je pouvais prendre soin de ma famille", a-t-il déclaré. "Je veux retrouver mon ancienne vie."
Les défenseurs pensent qu'il existe des dizaines de cas similaires d'arrestations injustifiées, mais ils sont difficiles à identifier car le service de police n'est pas tenu de partager le moment où les correspondances ont été établies à l'aide d'un logiciel de reconnaissance faciale.
"J'espère que j'aurai gain de cause", a déclaré Oliver. "Je ne veux pas que quelqu'un d'autre passe par là."