Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2734

Incidents associés

Incident 7411 Rapports
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Loading...
Il est temps de s'attaquer à la reconnaissance faciale, l'outil d'IA le plus troublant pour les forces de l'ordre
thebulletin.org · 2021

Depuis qu'un officier de police de Minneapolis a tué George Floyd en mars 2020 et a relancé des manifestations massives de Black Lives Matter, les communautés à travers le pays ont repensé l'application de la loi, de l'examen granulaire des façons dont la police utilise la force à la critique globale des préjugés raciaux dans police. Minneapolis, où Floyd a été tué, a même organisé un vote sur l'opportunité de supprimer le service de police et de le remplacer par une agence axée sur les services sociaux. Au milieu de la pression pour la réforme, une tendance dans le maintien de l'ordre a un besoin urgent de refonte : l'utilisation croissante par les services de police de l'intelligence artificielle, à savoir la reconnaissance faciale, pour aider à lutter contre la criminalité.

Les services de police [déployent de plus en plus d'intelligence artificielle avancée](https://www.msn.com/en-us/news/technology/police-are-investing-in-facial-recognition-and-ai-not-everyone-thinks -que-ça-va-bien/ar-AAOgdc2)-identification axée sur la lutte contre le crime. Des algorithmes d'IA sont maintenant utilisés pour identifier les individus par le visage, empreintes digitales et [ADN](https://news.mit.edu/2019/record -breaking-dna-comparisons-drive-fast-forensics-idprism-0626), avec plus ou moins de succès. Parmi ces technologies d'intelligence artificielle, la technologie de reconnaissance faciale est sans doute la plus troublante. Des études ont documenté les préjugés raciaux et sexistes de ces systèmes, et contrairement aux algorithmes d'analyse d'empreintes digitales ou d'ADN, la police utilise la reconnaissance faciale sur le terrain pour prendre des décisions sur place. Cela a déjà un impact corrosif sur la société.

Prenez Robert Williams, un homme noir vivant à Détroit, dans le Michigan, qui a été appelé par la police de Détroit et qui lui a dit de se rendre pour vol à l'étalage. "J'ai supposé que c'était une farce", a-t-il déclaré à un sous-comité du Congrès en juillet, mais la police s'est ensuite présentée chez lui et l'a arrêté devant sa femme et ses enfants. Ils l'ont détenu pendant 30 heures. La preuve? Une photo de surveillance représentant quelqu'un d'autre. "J'ai tenu ce morceau de papier devant mon visage et j'ai dit:" J'espère que vous ne pensez pas que tous les Noirs se ressemblent "", a déclaré Williams, [according] (https://www.detroitnews.com/story/news /politics/2021/07/13/house-panel-hear-michigan-man-wrongfully-accused-facial-recognition/7948908002/) à The Detroit News. Dans tout le pays, 18 000 services de police utilisent cette technologie généralement non réglementée, la présidente du comité, la représentante Sheila Jackson Lee, a déclaré. "Ajouter une technologie de reconnaissance faciale non testée et non approuvée à nos services de police ne servirait qu'à exacerber les problèmes systémiques qui affligent encore notre système de justice pénale", a-t-elle déclaré.

Williams est libre ; les charges retenues contre lui ont été abandonnées, tout comme les charges contre Michael Oliver et Nijeer Parks , deux autres hommes noirs arrêtés sur la base de correspondances de reconnaissance faciale défectueuses . Mais la rencontre tendue de Williams avec la police aurait pu mal se terminer, comme de tels moments l'ont fait pour d'autres. "Comme tout autre homme noir le serait, je devais réfléchir à ce qui pourrait arriver si je posais trop de questions ou si je montrais ouvertement ma colère, même si je savais que je n'avais rien fait de mal", a écrit Williams dans The Washington Post. À une époque des forces de l'ordre racistes - la police a tué plus de 1 000 personnes dans l'année qui a suivi le meurtre de Floyd, dont un nombre disproportionné de Noirs - la police continue de se tourner vers une technologie de reconnaissance faciale largement non réglementée - un logiciel connu pour être nettement moins précis lorsqu'il s'agit d'identifier les Noirs et d'autres minorités - pour prendre des décisions potentiellement mortelles conséquences.

Comment fonctionne la reconnaissance faciale. Pour comprendre les risques liés à l'utilisation de la reconnaissance faciale par la police, il est utile de comprendre le fonctionnement de la technologie. Conceptuellement, ces systèmes peuvent être décomposés en trois parties principales : la base de données de visages connus, l'algorithme et l'image de requête.

Les images de visages connus peuvent provenir de photos de permis de conduire, de photos de passeport, de photos d'identité, d'images fixes de caméras de vidéosurveillance, d'images de médias sociaux et de nombreux autres endroits.

Les algorithmes de reconnaissance faciale sont intégrés dans des logiciels par des fournisseurs, mais les algorithmes eux-mêmes peuvent provenir de n'importe où. Le plus souvent, les algorithmes sous-jacents sont créés par des chercheurs au sein d'universités, d'organisations gouvernementales et d'entreprises. Mais à peu près n'importe quelle entité peut devenir un fournisseur en licenciant, en achetant, en copiant ou en développant un algorithme de reconnaissance faciale et en le conditionnant pour une utilisation facile.

Les images de requête sont souvent des images capturées sur des systèmes de caméras intégrés dans des voitures de police, des caméras de sécurité et des caméras portées par la police. La qualité de l'image dépend fortement du système de capture d'image utilisé, des conditions d'éclairage, de la distance et même de la pose du visage capturé. Ces images peuvent être associées à un visage dans l'ensemble de données de visages connus.

Dans le bon ensemble de circonstances, ces éléments peuvent conspirer pour produire une fausse correspondance, soulignant le risque que la technologie de reconnaissance faciale pose pour les libertés civiles.

Le danger des faux positifs. Les erreurs de reconnaissance faciale sont de deux types : les faux négatifs et les faux positifs. Les faux négatifs sont des cas où une image de requête, par exemple, une image capturée sur le système de caméra d'un véhicule de police, est une image d'une personne contenue dans la base de données des visages connus, peut-être un suspect dans un crime, mais l'algorithme du système de reconnaissance faciale ne fonctionne pas. t détecter la correspondance. Les faux positifs, en revanche, sont des cas où l'algorithme associe par erreur une image de requête à un visage de la base de données de visages connus, ce qui correspond potentiellement au visage d'une personne avec celui d'un criminel. Ces deux types d'erreurs pourraient tous deux entraîner des résultats négatifs pour le public, mais les fausses erreurs négatives n'introduisent pas de mauvais résultats qui ne se seraient pas déjà produits en l'absence de systèmes de reconnaissance faciale. Les faux positifs, à l'inverse, introduisent de nouveaux dangers pour la police et les civils ordinaires.

Alors, regardons à quel point ces taux de faux positifs sont mauvais et quelles variables influencent ces taux.

Un [rapport] de 2019 (https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software) par le National Institute of Standards and Technology (NIST) sur la précision de la technologie de reconnaissance faciale a constaté que le taux de faux positifs variait fortement en fonction de facteurs tels que la qualité de l'image de la requête, l'ensemble de données sous-jacent et la race des visages interrogés. La plage des taux d'erreurs de faux positifs se situait entre 3 erreurs sur 100 000 requêtes (0,003 %) dans des conditions optimales et 3 erreurs sur 1 000 requêtes (0,3 %). De plus, les sources d'images de requête testées par l'institut fédéral étaient de meilleure qualité que ce que la police sur le terrain est susceptible de traiter.

Dans le même rapport, les chercheurs ont testé la précision des systèmes de reconnaissance faciale en fonction de différentes variables démographiques telles que le sexe, l'âge et la race et ont constaté que la variation de la race des paires de visages correspondants créait des taux de faux positifs souvent supérieurs de deux ordres de grandeur pour les personnes plus sombres. individus écorchés. Les images de femmes produisaient des taux de faux positifs plus élevés que celles des hommes. Les images pour les femmes d'Afrique de l'Est produisaient environ 100 fois plus de faux positifs (3/1 000) que les images pour les hommes blancs (3/100 000).

Ces taux d'erreurs de faux positifs sont particulièrement dangereux lorsqu'ils sont combinés aux différences pratiques liées au moment et à l'endroit où les systèmes d'IA sont déployés. Pour l'analyse des empreintes digitales et de l'ADN, les systèmes d'IA fonctionnent sur des échantillons collectés et sont généralement exécutés dans un environnement de laboratoire où les résultats de ces systèmes peuvent être réanalysés par des experts humains ; les systèmes de reconnaissance faciale, en revanche, peuvent être déployés par des agents [sur le terrain](https://www.nbcnews.com/news/us-news/how-facial-recognition-became-routine-policing-tool -amérique-n1004251). Le jugement final sur la précision d'une correspondance peut dépendre simplement du discernement d'un officier.

Plusieurs degrés de précision, peu de surveillance. En règle générale, les éditeurs de logiciels combinent des algorithmes de détection faciale existants ou propriétaires avec des interfaces utilisateur dans des progiciels destinés à être utilisés par les forces de l'ordre. Au total, il existe plus de 80 éditeurs de logiciels avec plus de 600 algorithmes de détection faciale qui ont été testé par le NIST, dont beaucoup sont disponibles à l'achat pour les forces de l'ordre locales. Les performances de ces algorithmes varient considérablement et les algorithmes sous-jacents ne sont souvent pas mis à disposition pour l'inspection du code et des données de formation (comme avec la plupart des logiciels propriétaires) afin de protéger la propriété intellectuelle des éditeurs de logiciels. De plus, des fournisseurs tels que Clearview AI font de la publicité directement auprès des organismes locaux chargés de l'application de la loi, qui sont ensuite chargés de vérifier et de se procurer les systèmes de reconnaissance faciale qu'ils déploient. De plus, sans cadre global pour le déploiement de ces systèmes, de nombreux organismes d'application de la loi ne sont pas tenus de demander conseil avant de déployer un système localement. Compte tenu de la variabilité des fournisseurs et de leurs logiciels et du manque de surveillance des départements qui sélectionnent les fournisseurs, il est peu surprenant que la précision de leurs systèmes varie beaucoup. Et il convient de le répéter, la précision variable de ces systèmes peut entraîner et entraînera probablement des dommages dans le monde réel.

En tant qu'organisations telles que l'Union américaine des libertés civiles, [des chercheurs universitaires](https://www.law.georgetown. edu/privacy-technology-center/publications/garbage-in-garbage-out-face-recognition-on-flawed-data/), et [militants](https://www.eff.org/deeplinks/2021/10 /face-recognition-isnt-just-face-identification-and-verification) soulèvent la question de plus en plus urgente des technologies de reconnaissance faciale de la police au Congrès, dans les maisons d'État et les mairies, dans une poignée de villes, d'États et [même dans certains pays] (https://www.washingtonpost.com/world/2021/09/15/un-ai-moratorium/) ont décidé d'interdire l'utilisation de la reconnaissance faciale par les agences publiques. Plus récemment, l'État du Maine a limité l'utilisation de la reconnaissance faciale à un ensemble spécifique d'instances. Ailleurs, cependant, les efforts pour maîtriser la technologie ont échoué. À West Lafayette, Ind., le maire John Dennis a récemment mis son veto à un projet de loi écrit pour interdire l'utilisation de la reconnaissance faciale par agences publiques. Pendant ce temps, la technologie devient plus puissante. Clearview AI vend un système qui a élargi l'univers des visages connus à quelque 10 milliards de photos sur l'Internet public .

Dans témoignage écrit lors de l'audience du Congrès avec Williams, le professeur de droit Barry Friedman de l'Université de New York a comparé l'environnement réglementaire entourant les logiciels de reconnaissance faciale au « Far West ». Il est clair que la technologie de reconnaissance faciale, aussi précise soit-elle dans des circonstances idéales, peut être terriblement insuffisante dans la pratique. C'est un échec de la politique et de la technologie et il est probable que Williams ne sera pas la dernière personne à en supporter les coûts.

_Note de l'éditeur : cet article indiquait à tort que la police avait tué plus de 1 000 Noirs dans l'année qui a suivi le meurtre de George Floyd. En effet, selon les données du groupe Mapping Police Violence analysées par Al Jazeera, la police a tué 1 068 personnes, dont toutes n'étaient pas noires. Selon le groupe de suivi, les Noirs sont trois fois plus susceptibles d'être tués par la police que les Blancs. _

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd