Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2728

Incidents associés

Incident 43021 Rapports
Lawyers Denied Entry to Performance Venue by Facial Recognition

Loading...
La technologie de reconnaissance faciale suscite de nouvelles critiques au milieu de la controverse sur le MSG
ny1.com · 2023

Entrer dans la bodega locale, franchir les tourniquets du métro et assister à un spectacle au Madison Square Garden sont tous des événements réguliers à New York.

Ce sont également des situations dans lesquelles les visages des New-Yorkais pourraient se retrouver sur un écran d'ordinateur ou être scannés pour la biométrie - le tout sans leur consentement.

Au cours des dernières semaines, l'utilisation par le propriétaire du Madison Square Garden, James Dolan, de [la reconnaissance faciale sur le site a attiré un nouvel examen de la technologie.](https://www.ny1.com/nyc/all-boroughs/politics/2023/01/ 25/albany-takes-on-attorney-ban-at-madison-square-garden) Dolan a utilisé la technologie pour interdire aux avocats impliqués dans des litiges contre lui d'entrer dans l'arène.

Cependant, ce ne sont pas seulement les problèmes de confidentialité ou de responsabilité qui soulèvent des signaux d'alarme pour les critiques de la technologie. Les opposants disent qu'il existe des divergences raciales - non seulement dans l'endroit où cette technologie est utilisée, mais dans la vitesse à laquelle elle identifie à tort les personnes de couleur.

Maintenant, les militants et les législateurs tentent de tirer la sonnette d'alarme sur le potentiel de la technologie à causer des dommages, en particulier aux New-Yorkais bruns et noirs, avant que son utilisation ne se généralise encore plus.

Le sénateur de l'État de Manhattan, Brad Hoylman-Sigal, un démocrate, travaille sur une législation à Albany qui mettrait une pause sur l'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre jusqu'à ce que des directives d'utilisation soient établies, y compris un cadre pour l'élimination des images collectées et données.

"Avec la technologie de reconnaissance faciale, pratiquement tout le monde est un suspect", a déclaré Hoylman-Sigal dans une interview avec NY1. "Lorsque vous entrez dans un lieu comme le Madison Square Garden, votre visage est scanné. Pas seulement votre visage, cependant, devrais-je ajouter; votre expression, vos sentiments, certaines technologies de reconnaissance faciale peuvent également lire sur les lèvres. Toutes ces informations sont stockées.

"Où est-il utilisé après, disons, que Jim Dolan vous a projeté alors que vous entrez dans un match des Knicks?" Il a demandé. "Cela m'inquiète vraiment, ainsi que d'autres responsables publics."

"Automatiser le biais"

Le NYPD, pour sa part, a déployé la technologie de reconnaissance faciale depuis au moins 2011. Mais les détails sur la façon dont cette technologie est utilisée restent flous et sa précision a été remise en question par les critiques.

Les chercheurs ont découvert que la technologie est plus susceptible de mal identifier les personnes de couleur, les personnes trans et les femmes que les hommes blancs d'âge moyen.

Une étude de 2019 intitulée "Racial Faces in the Wild : Reducing Racial Bias by Information Maximization Adaptation Network" a révélé que quatre principaux outils commerciaux de reconnaissance faciale et quatre outils de reconnaissance faciale à la pointe de la technologie ont identifié à tort des visages blancs par paires correspondant à 10 % du temps, tandis que les visages noirs et asiatiques ont été mal identifiés près de deux fois plus souvent.

[Une étude du National Institute of Standards and Technology](https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition -logiciel) également publié en 2019 indiquait des taux d'erreur plus élevés pour l'appariement des paires de visages noirs et asiatiques, avec des taux d'erreur jusqu'à 100 fois plus élevés pour les Noirs et les Asiatiques que pour les Blancs sur certains systèmes de reconnaissance faciale.

Et une étude du Massachusetts Institute of Technology en 2018 a révélé que le taux d'erreur était le plus élevé lorsqu'il s'agissait de femmes noires à la peau foncée.

"Essentiellement, pour ces femmes, le système aurait tout aussi bien pu deviner le sexe au hasard", [MIT a déclaré dans un communiqué de presse] (https://news.mit.edu/2018/study-finds-gender-skin-type -bias-artificial-intelligence-systems-0212) sur l'étude.

Les opposants soutiennent que dans une ville qui a l'habitude de cibler les musulmans après les attentats terroristes du 11 septembre 2001 et d'utiliser des pratiques racistes d'application de la loi comme "stop and frisk", l'utilisation de la technologie de reconnaissance faciale est essentiellement un moyen de codifier les préjugés.

En 2013, un juge fédéral a statué que l'utilisation du «stop and frisk» était racialement discriminatoire et inconstitutionnelle en vertu des quatrième et 14e amendements.

"Quand nous pensons à l'humain moyen qui a un certain niveau de préjugé, nous pouvons penser à la façon dont la création de la technologie - en particulier la technologie de reconnaissance faciale - est une création humaine et donc elle automatise le préjugé qui est déjà là », a déclaré Attiya Latif, un organisateur du personnel d'Amnesty International basé à New York.

Selon une étude menée par Amnesty International, les New-Yorkais vivant dans des zones à plus haut risque d'interpellation policière sont plus susceptibles d'être exposés à la technologie de reconnaissance faciale.

L'organisation de défense des droits de l'homme a également constaté que dans le Bronx, Brooklyn et le Queens, il y avait une concentration plus élevée de caméras de vidéosurveillance ou de vidéosurveillance compatibles avec la reconnaissance faciale dans les zones avec une proportion plus élevée de résidents non blancs.

En 2019, Gothamist a rapporté que le procureur du district de Staten Island, Michael McMahon, avait acheté la technologie Clearview AI.

Le logiciel de reconnaissance faciale diffère des formes traditionnelles de technologie en permettant aux utilisateurs de rechercher des correspondances de visage potentielles sur des sites tels que YouTube, Facebook, LinkedIn et Venmo, au lieu de s'appuyer uniquement sur les bases de données gouvernementales de mugshots et de permis de conduire.

Les dossiers révélés dans le cadre de la demande de la loi sur la liberté d'information par la Legal Aid Society ont montré que le bureau du procureur de Staten Island avait payé 10 000 $ en mai 2019 pour que 11 employés utilisent les services de Clearview pendant un an.

Les élus ont condamné l'utilisation de ce logiciel et appelé à l'arrêt immédiat de son utilisation.

"La technologie de reconnaissance faciale comme Clearview AI a la capacité de ne pas être un outil pour la sécurité publique, mais une menace pour celle-ci", a écrit l'avocat public Jumaane Williams [in a statement.](https://www.pubadvocate.nyc.gov/press /déclaration-williams-staten-island-district-attorneys-use-clearview-ai-facial-recognition/)

Problèmes de coût

Les critiques ont également soulevé des inquiétudes quant au montant d'argent que le NYPD dépense pour la technologie.

Les défenseurs de la vie privée comme Albert Fox Cahn, directeur exécutif de Surveillance Technology Oversight Project, une organisation de défense à but non lucratif hébergée par le Urban Justice Center, affirment que les coûts de ces outils de surveillance sont souvent enfouis dans les budgets municipaux.

En 2020, le conseil municipal, en collaboration avec des groupes de libertés civiles comme S.T.O.P. – le projet de surveillance des technologies de surveillance – a adopté la loi POST, qui exige plus de transparence concernant les dépenses de surveillance.

Dix ans de contrats s'élevant à près de 3 milliards de dollars en contrats de surveillance du NYPD ont été découverts en vertu de la loi. Les contrats s'élevaient à 2,5 milliards de dollars de plus que précédemment annoncé, et comprenaient plus de 400 millions de dollars dépensés pour le Domain Awareness System, un système de surveillance opaque qui collecte des dizaines de milliers de flux de caméras de toute la ville.

Cahn dit que malgré l'adoption de la loi POST, amener le NYPD à divulguer ses dossiers sur la technologie reste une bataille difficile.

Le groupe est actuellement en litige avec le NYPD en vertu de la loi sur la liberté d'information de New York pour obliger le département à produire les documents demandés concernant leur utilisation de la surveillance par reconnaissance faciale à Times Square. Ils devraient être de retour devant le tribunal le mois prochain, selon Cahn.

Les responsables de la police n'ont pas répondu à la demande de commentaires.

Action politique

Le mois dernier, la procureure générale de New York, Letitia James, a envoyé une lettre à la société propriétaire du Madison Square Garden lui demandant d'expliquer comment elle utilise la technologie de reconnaissance faciale pour interdire aux détenteurs de billets d'entrer dans ses salles.

Dans la lettre, James a demandé à MSG Entertainment de signaler les mesures prises par l'entreprise pour se conformer aux lois de l'État sur les droits civils et humains et de s'assurer que sa technologie ne conduira pas à la discrimination.

"Notre politique n'interdit illégalement à personne d'entrer dans nos salles, et notre intention n'est pas de dissuader les avocats de représenter les plaignants dans les litiges contre nous", a écrit un porte-parole de MSG Entertainment dans un communiqué. "Nous excluons simplement un petit pourcentage d'avocats, et uniquement pendant les litiges actifs."

Actuellement, il n'y a pas de lois fédérales ou étatiques réglementant l'utilisation de la technologie. Mais des législateurs comme Hoylman-Sigal tentent de changer cela.

Parallèlement à son projet de loi qui mettrait effectivement une pause dans l'utilisation de la technologie de reconnaissance faciale, le sénateur de l'État parraine un projet de loi qui interdirait aux propriétaires d'utiliser des systèmes de reconnaissance faciale dans les locaux résidentiels. Les deux projets de loi restent en commission.

Au niveau de la ville, la conseillère Carlina Rivera, dont le district de Manhattan comprend l'East Village, Gramercy Park et le Lower East Side, a présenté un projet de loi qui obligerait les agences municipales à soumettre des rapports annuels sur les données des technologies de surveillance, y compris, mais sans s'y limiter, la collecte , l'utilisation, l'achat et la vente des données. Selon la version actuelle du projet de loi, le NYPD serait exclu de cette exigence.

Un autre projet de loi parrainé par Rivera définirait comment la technologie est utilisée dans les espaces résidentiels. La conseillère Jennifer Gutiérrez, dont le district comprend Williamsburg, Bushwick et Ridgewood, a également présenté un projet de loi qui obligerait les propriétaires d'immeubles à se faire enregistrer lorsqu'ils utilisent la reconnaissance biométrique.

Il existe également un projet de loi parrainé par Williams qui interdirait la surveillance non autorisée sur les systèmes GPS sans le consentement d'une personne.

"Nous espérons qu'avec cette législation et une audience au niveau du conseil municipal, nous pourrons faire en sorte que le NYPD s'exprime publiquement sur ce qu'ils font avec les données, comment ils ont l'intention de les utiliser et de les développer. ça », a déclaré Rivera. "Nous voulons obtenir ces réponses au public immédiatement."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd