Incidents associés

Rite Aid a accepté une interdiction de cinq ans d'utiliser la technologie de reconnaissance faciale après que la Federal Trade Commission a constaté que la chaîne accusait à tort ses clients de crimes et ciblait injustement les personnes de couleur.
La FTC et Rite Aid sont parvenues à un règlement mardi après qu'une plainte accusait la chaîne d'utiliser un logiciel basé sur l'intelligence artificielle dans des centaines de magasins pour identifier les personnes que Rite Aid « juge susceptibles de se livrer à un vol à l'étalage ou à d'autres comportements criminels » et expulsez-les des magasins – ou empêchez-les d’entrer.
Mais la technologie imparfaite a conduit les employés à réagir à des alertes faussement positives, identifiant à tort les clients comme des criminels. Dans certains cas, la FTC a accusé les employés de Rite Aid d'avoir publiquement accusé des personnes d'activités criminelles devant leurs amis, leur famille et des inconnus. Certains clients ont été arrêtés à tort et soumis à des fouilles, a indiqué la FTC.
Rite Aid a déclaré dans un communiqué qu'il était « heureux de parvenir à un accord » avec la FTC, mais a ajouté que « nous sommes fondamentalement en désaccord avec les allégations de reconnaissance faciale contenues dans la plainte de l'agence ». La technologie était un programme pilote et n’était utilisée que dans un « nombre limité de magasins ». Le test s’est arrêté il y a plus de trois ans avant le début de l’enquête de la FTC.
Le dossier juridique de la FTC, qui contient des plaintes de clients s'étalant de 2012 à 2020, indique que certains clients ont été « accusés à tort par des employés d'actes répréhensibles » parce que la technologie de Rite Aid « a signalé à tort que les consommateurs correspondaient à quelqu'un qui avait été précédemment identifié comme un voleur à l'étalage ou autre. fauteur de troubles." Le logiciel de reconnaissance faciale a été principalement déployé dans les quartiers abritant d'importantes communautés noires, latino-américaines et asiatiques, a indiqué la FTC.
"L'utilisation imprudente par Rite Aid des systèmes de surveillance faciale a laissé ses clients confrontés à l'humiliation et à d'autres préjudices, et ses violations d'ordre mettent en danger les informations sensibles des consommateurs", a déclaré Samuel Levine, directeur du Bureau de protection des consommateurs de la FTC, dans un communiqué.
L'ordonnance proposée signifie que Rite Aid devra « mettre en œuvre des garanties complètes » pour éviter tout préjudice à ses clients lors du déploiement de la technologie basée sur l'IA sur ses sites. L’ordonnance empêche également Rite Aid d’utiliser la technologie si elle « ne peut pas contrôler les risques potentiels pour les consommateurs ».
« La sécurité de nos associés et de nos clients est primordiale », a déclaré Rite Aid. "Dans le cadre de l'accord avec la FTC, nous continuerons d'améliorer et de formaliser les pratiques et politiques de notre programme complet de sécurité de l'information."
Le programme pilote impliquait la création d’une base de données de milliers d’images de mauvaise qualité provenant des caméras des magasins et des téléphones des employés des visages des clients, qui étaient étiquetés comme « personnes d’intérêt » parce que Rite Aid pensait qu’elles se livraient à des activités criminelles dans ses magasins. La FTC demande à Rite Aid de supprimer ces images et d’informer les clients qu’elles se trouvent dans une base de données.
Étant donné que Rite Aid est engagé dans une procédure de faillite, la FTC a déclaré que ses ordonnances entrera en vigueur après approbation des tribunaux.