Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2143

Incidents associés

Incident 26710 Rapports
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

Loading...
Clearview AI utilise vos photos en ligne pour vous identifier instantanément. C'est un problème, dit le procès
latimes.com · 2021

Clearview AI a amassé une base de données de plus de 3 milliards de photos d'individus en grattant des sites tels que Facebook, Twitter, Google et Venmo. Elle est plus grande que toute autre base de données de reconnaissance faciale connue aux États-Unis, y compris celle du FBI. La société new-yorkaise utilise des algorithmes pour cartographier les images qu'elle stocke, déterminant, par exemple, la distance entre les yeux d'un individu pour construire une "empreinte faciale".

Cette technologie fait appel aux organismes d'application de la loi à travers le pays, qui peuvent l'utiliser en temps réel pour aider à déterminer l'identité des personnes.

Il a également attiré l'attention des défenseurs et des militants des libertés civiles, qui allèguent dans une action en justice déposée mardi que le grattage automatique de leurs images par l'entreprise et son extraction de leurs informations biométriques uniques violent la vie privée et refroidissent les discours et activités politiques protégés.

Les plaignants – quatre militants individuels des libertés civiles et les groupes Mijente et NorCal Resist – allèguent que Clearview AI "s'engage dans la collecte à grande échelle d'images et d'informations biométriques de résidents californiens sans préavis ni consentement".

Cela est particulièrement important, selon les plaignants, pour les partisans de la réforme de l'immigration ou de la police, dont le discours politique peut être critique à l'égard des forces de l'ordre et qui peuvent être membres de communautés qui ont été historiquement sur-surveillées et ciblées par des tactiques de surveillance.

Clearview AI renforce les efforts des forces de l'ordre pour surveiller ces militants, ainsi que les immigrants, les personnes de couleur et ceux perçus comme des «dissidents», tels que les militants de Black Lives Matter, et peut potentiellement décourager leur engagement dans un discours politique protégé en conséquence, disent les plaignants.

Le procès, déposé devant la Cour supérieure du comté d'Alameda, fait partie d'un effort croissant visant à restreindre l'utilisation de la technologie de reconnaissance faciale. Les villes de la région de la baie – dont San Francisco, Oakland, Berkeley et Alameda – ont mené cette charge et ont été parmi les premières aux États-Unis à limiter l'utilisation de la reconnaissance faciale par les forces de l'ordre locales en 2019.

Pourtant, cette poussée intervient à un moment où les attentes des consommateurs en matière de confidentialité [sont faibles](https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack -de-contrôle-sur-leurs-informations-personnelles/), car beaucoup en sont venus à considérer l'utilisation et la vente d'informations personnelles par des entreprises telles que Google et Facebook comme une fatalité de l'ère numérique.

Contrairement à d'autres utilisations d'informations personnelles, la reconnaissance faciale présente un danger unique, a déclaré Steven Renderos, directeur exécutif de MediaJustice et l'un des plaignants individuels dans le procès. "Bien que je puisse laisser mon téléphone portable à la maison [et] je peux laisser mon ordinateur à la maison si je le voulais", a-t-il déclaré, "l'une des choses que je ne peux pas vraiment laisser à la maison, c'est mon visage."

Clearview AI "contournait la volonté de beaucoup de gens" dans les villes de la région de la baie qui interdisaient ou limitaient l'utilisation de la reconnaissance faciale, a-t-il déclaré.

Améliorer la capacité des forces de l'ordre à identifier et à suivre instantanément les individus est potentiellement effrayant, selon les plaignants, et pourrait empêcher les membres de leurs groupes ou les Californiens en général d'exercer leur droit constitutionnel de manifester.

"Imaginez des milliers de policiers et d'agents de l'ICE à travers le pays avec la possibilité de connaître instantanément votre nom et votre travail, de voir ce que vous avez publié en ligne, de voir toutes les photos publiques de vous sur Internet", a déclaré Jacinta Gonzalez, une senior organisateur de campagne à Mijente. "C'est un cauchemar de surveillance pour nous tous, mais c'est le plus grand cauchemar pour les immigrants, les personnes de couleur et tous ceux qui sont déjà la cible des forces de l'ordre."

Les plaignants demandent une injonction qui obligerait l'entreprise à cesser de collecter des informations biométriques en Californie. Ils demandent également la suppression permanente de toutes les images et données biométriques ou informations personnelles de leurs bases de données, a déclaré Sejal R. Zota, directeur juridique de Just Futures Law et l'un des avocats représentant les plaignants dans la poursuite. Les demandeurs sont également représentés par Braunhagey & Borden.

"Nos plaignants et leurs membres se soucient profondément de la capacité de contrôler leurs identifiants biométriques et de pouvoir continuer à s'engager dans un discours politique critique de la police et de la politique d'immigration à l'abri de la menace d'une surveillance clandestine et invasive", a déclaré Zota. "Et la Californie a une Constitution et des lois qui protègent ces droits."

Dans un communiqué publié mardi, Floyd Abrams, avocat de Clearview AI, a déclaré que la société "se conforme à toutes les lois applicables et que sa conduite est entièrement protégée par le 1er amendement".

Ce n'est pas le premier procès de ce genre - l'American Civil Liberties Union poursuit Clearview AI dans l'Illinois pour avoir prétendument violé la [confidentialité biométrique] de l'État (https://www.theverge.com/2020/5/28/21273388/aclu- clearview-ai-lawsuit-facial-recognition-database-illinois-biometric-laws). Mais c'est l'une des premières poursuites intentées au nom d'activistes et d'organisations de base "pour qui il est vital", a déclaré Zota, "de pouvoir continuer à tenir un discours politique critique à l'égard de la police, critique de l'immigration". politique."

Clearview AI fait également l'objet d'un examen minutieux à l'échelle internationale. En janvier, l'Union européenne a déclaré que le traitement des données par Clearview AI violait le règlement général sur la protection des données. Le mois dernier, le commissaire à la protection de la vie privée du Canada, Daniel Therrien, a qualifié les services de l'entreprise de "illégaux" et a déclaré ils équivalaient à une surveillance de masse qui plaçait toute la société « continuellement dans une file policière ». Il a demandé à l'entreprise de supprimer les images de tous les Canadiens de sa base de données.

Clearview AI a vu l'adoption généralisée de sa technologie depuis sa création en 2017. -interview-2400-services-de-police-reconnaissance-faciale) que plus de 2 400 organismes d'application de la loi utilisaient les services de Clearview. Après l'émeute de janvier au Capitole des États-Unis, l'entreprise a vu une augmentation de 26 % de l'utilisation de la technologie par les forces de l'ordre, [Ton-That said](https://www.latimes.com/business/technology/story/2021-02 -04/facial-recognition-surveillance-capitol-riot-black-and-brown-communities).

La société continue de vendre sa technologie aux services de police de toute la Californie ainsi qu'aux services de l'immigration et des douanes, selon le procès, malgré plusieurs interdictions locales d'utilisation de la reconnaissance faciale.

L'ordonnance de San Francisco qui limite l'utilisation de la reconnaissance faciale cite spécifiquement la propension de la technologie à "mettre en danger les droits civils et les libertés civiles" et à "exacerber l'injustice raciale".

Des études ont montré que la technologie de reconnaissance faciale ne parvient pas à identifier les personnes de couleur. Une [étude fédérale de 2019](https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding -use/) a conclu que les Noirs et les Asiatiques étaient environ 100 fois plus susceptibles d'être mal identifiés par la reconnaissance faciale que les Blancs. Il y a maintenant au moins deux cas connus de personnes noires mal identifiées par la technologie de reconnaissance faciale, conduisant à leur [arrestation injustifiée] (https://www.aclu.org/letter/aclu-michigan-complaint-re-use-facial -reconnaissance).

Ton-That avait précédemment déclaré au Times qu'une étude indépendante avait montré que Clearview AI n'avait aucun préjugé racial et qu'il n'y avait aucun cas connu de la technologie conduisant à une arrestation injustifiée.

L'ACLU, cependant, a déjà remis en question l'étude, en disant spécifiquement qu'elle est "très trompeuse » et que son affirmation selon laquelle le système est impartial « démontre que Clearview ne comprend tout simplement pas les méfaits de sa technologie entre les mains des forces de l'ordre.

Renderos a déclaré que rendre la reconnaissance faciale plus précise ne la rend pas moins nocive pour les communautés de couleur ou d'autres groupes marginalisés.

"Ce n'est pas un outil qui existe dans le vide", a-t-il déclaré. "Vous placez cet outil dans des institutions qui ont démontré leur capacité à profiler racialement les communautés de couleur, les Noirs en particulier... L'outil le plus neutre, le plus précis, le plus efficace - ce qu'il sera simplement plus efficace pour faire, c’est aider les forces de l’ordre à continuer de surveiller, d’arrêter et d’incarcérer à outrance les Noirs, les Autochtones et les personnes de couleur.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd