Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3510

Incidentes Asociados

Incidente 61914 Reportes
Rite Aid Facial Recognition Disproportionately Misidentified Minority Shoppers as Shoplifters

Loading...
La IA de Rite Aid El reconocimiento facial etiquetó erróneamente a las personas de color como ladrones
nytimes.com · 2023

Rite Aid, la cadena de farmacias, utilizó tecnología de reconocimiento facial para identificar falsa y desproporcionadamente a personas de color y mujeres como posibles ladrones, dijo el martes la Comisión Federal de Comercio, describiendo un sistema que avergonzó a los clientes y generó nuevas preocupaciones sobre los prejuicios incorporados en tales tecnologías. .

Según los términos del acuerdo, a Rite Aid se le prohibirá utilizar tecnología de reconocimiento facial en sus tiendas con fines de vigilancia durante cinco años, [la F.T.C. dijo](https://www.ftc.gov/news-events/news/press-releases/2023/12/rite-aid-banned-using-ai-facial-recognition-after-ftc-says-retailer-deployed -tecnología-sin). La agencia, que hace cumplir las leyes federales de protección al consumidor, parecía estar indicando cuán seriamente respondería a las preocupaciones sobre la tecnología de reconocimiento facial.

La denuncia de 54 páginas de la FTC también arrojó luz sobre cómo una preocupación que alguna vez fue teórica (que el sesgo humano se filtraría en los algoritmos de inteligencia artificial y amplificaría la discriminación) se ha convertido en un motivo de preocupación en el mundo real.

Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, dijo en un comunicado que “el uso imprudente de los sistemas de vigilancia facial por parte de Rite Aid dejó a sus clientes frente a humillaciones y otros daños”.

Desde octubre de 2012 hasta julio de 2020, según la denuncia, los empleados de Rite Aid que actuaron basándose en alertas falsas de los sistemas siguieron a los clientes por las tiendas, los registraron, ordenaron a algunos que se fueran y, si se negaban, llamaban a la policía para confrontarlos o expulsarlos, en ocasiones. frente a amigos y familiares.

Las acciones de Rite Aid afectaron desproporcionadamente a personas de color, especialmente a negros, asiáticos y latinos, todo con el pretexto de mantener a “personas de interés” fuera de cientos de tiendas Rite Aid en ciudades como Nueva York, Filadelfia y Sacramento, dijo la F.T.C. dicho.

Rite Aid dijo en un comunicado que si bien no estuvo de acuerdo con las acusaciones de la F.T.C., estaba “complacida de llegar a un acuerdo”.

"Las acusaciones se relacionan con un programa piloto de tecnología de reconocimiento facial que la compañía implementó en un número limitado de tiendas", dijo la compañía. "Rite Aid dejó de usar la tecnología en este pequeño grupo de tiendas hace más de tres años, antes de que comenzara la investigación de la FTC sobre el uso de la tecnología por parte de la empresa".

El acuerdo con Rite Aid se produce aproximadamente dos meses después de que la empresa se acogiera a [protección por quiebra] (https://www.nytimes.com/2023/10/15/business/rite-aid-bankruptcy.html) y anunciara planes para cerrar. 154 tiendas en más de 10 estados.

Rite Aid estaba utilizando la tecnología de reconocimiento facial mientras las cadenas minoristas hacían sonar las alarmas sobre el robo en tiendas, especialmente el "crimen minorista organizado", en el que varias personas roban productos de varias tiendas para luego venderlos en el mercado negro.

Esas preocupaciones llevaron a varias tiendas, incluida Rite Aid, a proteger la mercancía encerrándola en cajas de plástico.

Pero esas preocupaciones parecen haber sido exageradas. Este mes, la Federación Nacional de Minoristas se retractó de su estimación incorrecta de que el crimen organizado en el comercio minorista fue responsable de casi la mitad de los 94.500 millones de dólares en mercancías de las tiendas que desaparecieron en 2021. Los expertos dicen que la cifra probablemente se acerque más al 5 por ciento.

Rite Aid no les dijo a los clientes que estaba usando la tecnología en sus tiendas, y se “desalentaba a los empleados de revelar dicha información”, dijo la F.T.C. dicho.

No está claro cuántos otros minoristas están utilizando tecnología de reconocimiento facial para vigilancia. Macy's le dijo a Business Insider que lo usa en algunas tiendas. Home Depot dice en su sitio web que recopila "información biométrica, incluido el reconocimiento facial".

Álvaro M. Bedoya, comisionado de la FTC, dijo en una declaración que “el hecho contundente de que la vigilancia puede dañar a las personas” no debe perderse en las conversaciones sobre cómo la vigilancia viola los derechos e invade la privacidad.

“Durante años ha quedado claro que los sistemas de reconocimiento facial pueden funcionar con menos eficacia en personas de piel más oscura y en mujeres”, afirmó Bedoya.

Woodrow Hartzog, profesor de derecho en la Universidad de Boston que ha investigado las tecnologías de reconocimiento facial y la F.T.C., dijo que la denuncia de la agencia contra Rite Aid muestra que considera que la A.I. la tecnología de vigilancia como una amenaza grave.

El objetivo de la queja de la agencia era importante, afirmó el profesor Hartzog. Aunque Rite Aid contrató a dos empresas anónimas para ayudar a crear una base de datos de personas que consideraba susceptibles de robar en tiendas, la F.T.C. Sólo fue tras Rite Aid.

La FTC, dijo, básicamente dice que “el comportamiento culpable al que nos dirigimos es no actuar con la debida diligencia al trabajar con otros proveedores”.

La denuncia señala que Rite Aid utilizó los sistemas de vigilancia en áreas urbanas y a lo largo de rutas de transporte público, lo que tuvo un efecto desproporcionado en las personas de color, dijeron los funcionarios.

Alrededor del 80 por ciento de las tiendas Rite Aid se encuentran en áreas donde los blancos constituyen el grupo racial o étnico más grande. Pero el 60 por ciento de las tiendas Rite Aid que utilizaban la tecnología de reconocimiento facial estaban en áreas donde los blancos no eran el grupo racial o étnico más grande, según la F.T.C.

Rite Aid capacitó a los trabajadores de seguridad de sus tiendas para introducir imágenes en una "base de datos de inscripciones" de personas que consideraba "personas de interés", y se pidió a los empleados que "presionaran para obtener tantas inscripciones como fuera posible". Las bases de datos estaban llenas de imágenes de baja calidad, muchas de las cuales fueron obtenidas de circuitos cerrados de televisión, cámaras de teléfonos móviles e informes de los medios, según la F.T.C. dicho.

Ese sistema defectuoso, dijeron los funcionarios, provocó miles de “coincidencias falsas positivas” o alertas que indicaban incorrectamente que un cliente era “coincidente” con una persona en la base de datos de Rite Aid. Peor aún, Rite Aid no tenía forma de rastrear los falsos positivos, según la denuncia.

"El hecho de que Rite Aid no capacitara o supervisara adecuadamente a los empleados que operaban la tecnología de reconocimiento facial aumentó aún más la probabilidad de daño a los consumidores", dijo la F.T.C. dicho.

En un caso, los empleados de Rite Aid detuvieron y registraron a una niña de 11 años a quien el sistema había marcado falsamente como una persona con probabilidades de cometer robo.

En otro ejemplo citado en la denuncia, un hombre negro escribió a Rite Aid después de haber sido víctima de una coincidencia de reconocimiento facial falsamente positiva.

“Ahora cuando entro en una tienda es extraño”, dijo, y agregó: “No todo hombre negro es un ladrón ni se le debe hacer sentir como tal”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd