Incidents associés
Madison Square Garden Entertainment Corp. a récemment fait l'objet de [critiques] considérables (https://news.bloomberglaw.com/privacy-and-data-security/madison-square-garden-pressed-by-ny-ag-james-over-face -scans) sur son utilisation de la technologie de reconnaissance faciale pour identifier les avocats adverses et empêcher leur accès à ses propriétés et lieux de divertissement.
Le conglomérat de divertissement justifie sa politique en disant qu'il n'exclut pas les avocats "sur la base des classes protégées identifiées dans les lois étatiques et fédérales sur les droits civils".
Bien que la politique puisse suivre la lettre de la [loi] de New York (https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3704369&GUID=070402C0-43F0-47AE-AA6E-DEF06CDF702A#:~:text= Tout%20établissement%20commercial%20qui%20collecte, les%20entrées%20des%20clients de l'établissement%20commercial%20), il évite son esprit en utilisant un logiciel de numérisation pour cibler de manière discriminatoire les avocats des cabinets d'avocats qui plaident contre lui, même ceux qui ne sont pas directement impliqués dans cette action en justice.
Cela a suscité un débat important sur ce qui a le plus de mérite : les droits de propriété d'une société ou la vie privée d'un avocat et les droits du premier amendement.
Iniquité et biais
La société qui exploite le Madison Square Garden et le Radio City Music Hall affirme qu'elle utilise un système ciblé qui utilise des images d'avocats provenant des sites Web de cabinets d'avocats ciblés pour "former" son système.
Mais la technologie ne peut toujours pas garantir l'absence de discrimination algorithmique. Son utilisation de cette manière pose un effet dissuasif potentiel sur la liberté d'expression et l'accès à la justice si un avocat pouvait refuser la représentation du client pour éviter l'application de cette politique.
La politique du conglomérat ne tient pas compte des inégalités et des biais algorithmiques qui peuvent être inhérents à ce technologie.
Les systèmes de reconnaissance faciale qui ne sont pas correctement entraînés avec diverses données peuvent entraîner des biais algorithmiques. L'injustice s'infiltre alors dans un large éventail d'applications, allant de la recherche d'emploi ou de l'obtention d'un prêt à l'identification erronée pour un crime.
Règlement requis
Sans réglementation, de telles applications dystopiques de la technologie pourraient proliférer. La capacité de créer et d'appliquer technologiquement une liste d'ennemis est contraire à une démocratie saine.
En 2019, le Congrès était sur le point de prendre des mesures concernant la Commercial Facial Recognition Privacy Act, qui aurait interdit aux entités de collecter, traiter, stocker ou contrôler les données de reconnaissance faciale.
Ceci, à moins que ces entités ne fournissent une documentation expliquant les capacités et les limites et obtiennent le consentement affirmatif explicite des utilisateurs finaux pour utiliser cette technologie après avoir fourni un avis sur l'utilisation des données de reconnaissance faciale.
Le projet de loi n'a pas été adopté une fois que la pandémie a détourné l'attention vers d'autres questions. Alors que la législation fédérale reste en suspens, New York a avancé son propre [règlement](https://www.nysenate.gov/newsroom/press-releases/brad-hoylman-sigal/senators-hoylman-sigal-krueger-and-assembly-member -simone) pour freiner d'éventuelles pratiques discriminatoires.
L'Association du Barreau de l'État de New York étudie également l'impact des logiciels de reconnaissance faciale et a formé un [groupe de travail](https://nysba.org/new-york-state-bar-association-is-studying-the-impact- of-facial-recognition-software-on-individual-liberty/) pour étudier l'effet de la technologie sur la capacité d'un avocat à représenter ses clients sans crainte de représailles.
La réglementation est nécessaire pour trouver un équilibre entre les droits de quelques-uns et le bien public. Une telle réglementation peut proscrire le ciblage délibéré du droit d'un individu à la liberté d'expression, à la vie privée, à l'accès à la justice et à la sécurité personnelle.
Arrière-plan
La reconnaissance faciale doit sa genèse au développement de la vision par ordinateur dans les années 1960. Au début des années 1990, deux agences gouvernementales américaines ont inauguré un programme de reconnaissance faciale pour encourager le développement du marché commercial. Le projet a créé une base de données de 2 413 images faciales fixes représentant 856 personnes.
Cet ensemble d'échantillons représentatif déclenche des biais algorithmiques potentiels. Par exemple, lorsque Google a lancé la reconnaissance faciale dans son application photo, il a mal catégorisé un couple noir dans l'album photo d'une personne blanche en tant que "gorilles".
En 2019, le National Institute of Standards and Technology a étudié plusieurs algorithmes de reconnaissance faciale et a découvert qu'ils étaient 10 à 100 fois moins précis pour identifier un visage noir qu'un visage blanc. Bien que la technologie ait évolué au cours des dernières années, elle n'est clairement pas infaillible.
Avantages et risques
Les promoteurs notent que la technologie a des applications bénéfiques. Par exemple, les médecins ont utilisé la technologie pour diagnostiquer certaines maladies détectables par les expressions faciales.
Le Department of Homeland Security déploie la technologie dans les aéroports pour faire respecter la [No Fly List](https://www.gao.gov/products/gao-22-106154#:~:text=As%20of%20July%202022% 2C%20CBP%20a%20déployé%20FRT%20à%2032,aéroports%20pour%20arrivant%20des%20voyageurs internationaux.). Les fabricants de téléphones portables utilisent la technologie pour l'accès biométrique aux smartphones. Un professeur a utilisé la reconnaissance faciale pour détecter l'ennui chez ses étudiants.
Bien que largement déployée dans une variété de disciplines et d'industries, la technologie de reconnaissance faciale reste largement non réglementée. En conséquence, ces systèmes ont le potentiel d'empiéter sur le droit constitutionnel à la vie privée, en surveillant les mouvements des individus à leur insu ou sans leur consentement.
Ces systèmes ont également été déployés à des fins néfastes, telles que le harcèlement en ligne et le cyber-harcèlement. Les pirates ont manipulé la reconnaissance faciale pour commettre des fraudes et des vols d'identité. Les forces de l'ordre ont utilisé ces systèmes pour cibler les manifestants, ce qui constitue une menace pour le droit constitutionnel de réunion pacifique.
Augmentation de l'utilisation par le secteur privé
À la suite du [meurtre] de George Floyd (https://news.bloomberglaw.com/privacy-and-data-security/san-francisco-sued-over-surveillance-of-george-floyd-protests) en 2020, plusieurs les États et les municipalités ont interdit ou suspendu l'utilisation des systèmes de reconnaissance faciale.
Une poignée de grandes entreprises technologiques ont également annoncé des [interdictions de vente] temporaires(https://news.bloomberglaw.com/tech-and-telecom-law/major-tech-firms-come-out-against-police-use-of -ai-algorithms) aux services de police - IBM Corp., Amazon.com Inc. et Microsoft Corp. De plus, Clearview AI a annoncé qu'elle n'offrirait pas la technologie à certains pays connus pour abuser de son utilisation.
Alors que l'utilisation des forces de l'ordre a été réduite en raison de ces actions, la technologie de reconnaissance faciale a explosé dans le secteur privé.
Des leaders dans le domaine tels que NEC Corp. et Clearview AI ont déployé leurs systèmes dans le monde entier auprès de divers groupes, notamment des agences de contrôle de l'immigration, des banques, des lieux de divertissement et de conférence et des stades.
L'utilisation accrue des entreprises privées non réglementées souligne l'urgence d'une action législative fédérale et étatique. Sans garde-fous juridiques, une utilisation bénigne potentielle peut être compensée par des applications plus inquiétantes qui empiètent sur les droits à la vie privée et conduisent à la discrimination.