Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1411

Incidents associés

Incident 1083 Rapports
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Loading...
Une adolescente s'est détournée de la patinoire après que l'IA l'ait identifiée à tort comme un fauteur de troubles interdit
theregister.com · 2021

Une adolescente noire aux États-Unis s'est vu interdire d'entrer dans une patinoire après qu'un système de reconnaissance faciale l'ait identifiée à tort comme une personne qui avait déjà été interdite pour y avoir déclenché une bagarre.

Lamya Robinson, 14 ans, avait été déposée par ses parents à Riverside Arena, un espace de patinage à roulettes intérieur à Livonia, Michigan, le week-end pour passer du temps avec ses copains. Des caméras de reconnaissance faciale installées à l'intérieur des locaux ont fait correspondre son visage à une photo de quelqu'un d'autre apparemment interdit à la suite d'une escarmouche avec d'autres patineurs.

Robinson a donc été sommé de quitter les lieux par le personnel. Elle a dit que la personne sur l'image ne pouvait pas être elle parce qu'elle n'était jamais allée à la patinoire auparavant. Ses parents, Juliea et Derrick, se demandent maintenant si cela vaut la peine de poursuivre Riverside Arena ou non.

"Pour moi, c'est essentiellement du profilage racial", a déclaré la mère de Lamya à Fox 2 Detroit. "Vous dites simplement que chaque jeune fille noire et brune avec des lunettes correspond au profil et ce n'est pas juste."

L'un des responsables de l'arène a ensuite appelé la mère de Lamya pour discuter de la question. Et dans un communiqué, le biz a déclaré: «Le logiciel avait sa fille à 97% de correspondance. C'est ce que nous avons regardé... s'il y a eu une erreur, nous nous en excusons."

Beaucoup d'erreurs à trouver

La technologie de reconnaissance faciale est controversée. Des experts de la communauté de recherche sur l'IA, des avocats et même des forces de l'ordre ont appelé le Congrès à imposer un moratoire sur l'utilisation du logiciel dans le monde réel. Plusieurs projets ont montré que les algorithmes impliqués ont généralement du mal à identifier avec précision les femmes et les personnes de couleur, comme Lamya.

Le comité judiciaire de la Chambre a tenu cette semaine une audience sur les effets de la reconnaissance faciale utilisée dans les forces de l'ordre. Robert Williams, un homme de Detroit, qui a été arrêté à tort et détenu pendant 30 heures, a témoigné.

"J'ai grandi à Detroit, et je sais d'après cette expérience que le fait est que les gens qui me ressemblent sont depuis longtemps plus soumis à la surveillance, à la police lourde et à l'incarcération de masse que certaines autres populations", a-t-il déclaré. "Je crains que la technologie de reconnaissance faciale, même si elle fonctionne mieux que dans mon cas, n'aggrave ces problèmes."

Cependant, il n'y a pas de réglementation fédérale de la technologie en Amérique, et le Congrès semble peu susceptible d'agir sur la question. Au lieu de cela, les États et les villes individuels ont leurs propres règles qui varient en termes de comment et où les caméras de reconnaissance faciale peuvent être utilisées ou non.

Dans le Maine, par exemple, les fonctionnaires de l'État ne peuvent pas utiliser la technologie et ne peuvent pas engager des tiers pour le faire. Le logiciel ne peut être utilisé que dans les cas de crimes graves ou pour rechercher des véhicules immatriculés. Ailleurs, à Portland, dans l'Oregon, les caméras à reconnaissance faciale ne sont pas autorisées à être utilisées dans les lieux publics ou privés, des épiceries aux gares.

De nombreux États, cependant, sont assez laxistes à ce sujet. Les banques de Floride et de Caroline du Nord utilisent des systèmes pour surveiller les clients et, dans certains cas, chasser les sans-abri qui traînent à l'extérieur.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd