Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2144

Incidents associés

Incident 26710 Rapports
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

Loading...
Des militants et des groupes de défense des droits poursuivent Clearview AI, avertissant que "nous ne serons pas en sécurité" tant que l'entreprise de reconnaissance faciale n'aura pas disparu
commondreams.org · 2021

Un groupe de défenseurs des libertés civiles et d'organisations de défense des droits des immigrés a poursuivi mardi Clearview AI devant un tribunal de Californie du Nord, alléguant que la société controversée de reconnaissance faciale avait illégalement "gratté" ou obtenu des photos pour sa base de données et que sa "technologie de surveillance de masse nuit de manière disproportionnée aux immigrés". et les communautés de couleur."

Mijente, NorCal Resist et cinq militants ont déposé la poursuite (pdf) en Cour supérieure du comté d'Alameda dans le but d'empêcher la société basée à New York de collecter des données en Californie et de la contraindre à supprimer des images et des données personnelles déjà extraites des sites de médias sociaux et stockées dans sa base de données de plus de trois milliards de photos.

Le procès prétend que le logiciel d'intelligence artificielle de l'entreprise est utilisé par les forces de l'ordre fédérales et étatiques pour identifier les personnes, en violation des lois étatiques et locales. En 2019, la Californie est devenue le troisième État après l'Oregon et le New Hampshire pour interdire l'utilisation par les forces de l'ordre de la reconnaissance faciale et d'autres technologies de suivi biométrique dans les caméras du corps des agents.

Ces dernières années, plusieurs municipalités californiennes, dont [San Francisco,](https://www.commondreams.org/news/2019/05/13/san-francisco-poised-make-history-law-banning-use-facial- reconnaissance-technologie) Oakland , et Berkeley ont également adopté des lois interdisant ou limitant la police et d'autres agences municipales d'utiliser la technologie de reconnaissance faciale. L'interdiction de San Francisco est testée dans un [poursuite](https://www.commondreams.org/news/2020/10/07/san-francisco-activists-sue-city-over-illegal-dragnet-surveillance-george- floyd-blm) déposée par l'Electronic Frontier Foundation, l'ACLU de Californie du Nord et des militants locaux, qui affirment avoir été illégalement surveillés lors des manifestations Black Lives Matter de l'année dernière.

"La vie privée est inscrite dans la constitution californienne, garantissant que tous les Californiens peuvent mener leur vie sans craindre d'être surveillés et contrôlés", a déclaré Sejal Zota, avocat principal dans la nouvelle poursuite, dans un [statement](https://justfutureslaw.org /wp-content/uploads/2021/03/Clearview-AI-California-lawsuit-press-release-3.pdf). "Clearview AI bouleverse cette dynamique, rendant impossible de marcher dans la rue sans craindre que votre image puisse être capturée, stockée indéfiniment par l'entreprise et utilisée contre vous à tout moment dans le futur. Il ne peut y avoir de vie privée significative dans une société avec Clearview IA."

NEWS : Nous poursuivons Clearview AI en Californie.

La firme de reconnaissance faciale est dangereuse. Son outil de surveillance, utilisé par plus de 2 400 services de police, entrave la liberté d'expression et met en danger les immigrants, les manifestants et les communautés de couleur.

Nous ne serons pas en sécurité tant qu'il ne sera pas parti.https://t.co/DXhoxBlCrm

— Mijente (@ConMijente) 9 mars 2021

Dans une interview avec CNN Business, Zota a appelé la technologie de Clearview AI "un saut terrifiant vers un État de surveillance de masse où les mouvements des gens sont suivis dès qu'ils quittent leur domicile."

Les plaignants affirment que les minorités sont particulièrement exposées au risque de violation des droits, le procès notant que "les algorithmes de reconnaissance faciale se sont révélés à plusieurs reprises peu performants lors de l'examen des visages de personnes de couleur".

"Par conséquent, la technologie de reconnaissance faciale présente un risque beaucoup plus élevé de mal identifier les personnes de couleur", déclare-t-il.

Jacinta Gonzalez, organisatrice principale de Mijente, a déclaré dans un statement que "des milliers de policiers locaux et d'agents fédéraux, y compris des agents de l'ICE [Immigration and Customs Enforcement], peuvent afficher Clearview sur leur téléphone, prendre votre photo et tout savoir sur vous, que vous soyez à une manifestation, sur le métro, ou sur le bord de la route. Cela va être utilisé pour nous surveiller, nous arrêter et, dans certains cas, nous expulser.

Clearview AI a été dénoncée dans le monde entier, l'Union européenne l'année dernière [affirmant](https://www.politico.eu/article/clearview-ai-use-likely-illegal-says-eu-data-protection-watchdog /) que l'entreprise viole probablement ses lois sur la protection de la vie privée et le commissaire à la protection de la vie privée du Canada le mois dernier [condamnant](https://www.cfr.org/blog/canada-has-denounced-clearview-ai-its-time-united-states- suite) l'utilisation par l'entreprise de données biométriques "grattées".

En plus des problèmes de confidentialité, la société a également [venu sous le feu] (https://www.huffpost.com/entry/clearview-ai-facial-recognition-alt-right_n_5e7d028bc5b6cb08a92a5c48?6p8) pour ses liens avec des individus d'extrême droite dans les Etats Unis.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd