Incidentes Asociados

Rite Aid acordó una prohibición de cinco años del uso de tecnología de reconocimiento facial después de que la Comisión Federal de Comercio descubriera que la cadena acusó falsamente a los clientes de delitos y atacó injustamente a personas de color.
La FTC y Rite Aid llegaron a un acuerdo el martes después de que una queja acusara a la cadena de utilizar software basado en inteligencia artificial en cientos de tiendas para identificar a las personas que Rite Aid "consideraba probable que participaran en hurtos u otras conductas delictivas" y echarlos de las tiendas o impedir que entren.
Pero la tecnología imperfecta llevó a los empleados a actuar ante alertas falsas positivas, que identificaban erróneamente a los clientes como delincuentes. En algunos casos, la FTC acusó a los empleados de Rite Aid de acusar públicamente a personas de actividades delictivas frente a amigos, familiares y extraños. Algunos clientes fueron detenidos por error y sometidos a registros, dijo la FTC.
Rite Aid dijo en un comunicado que está "complacido de llegar a un acuerdo" con la FTC, pero agregó que "fundamentalmente no estamos de acuerdo con las acusaciones de reconocimiento facial en la denuncia de la agencia". La tecnología era un programa piloto y sólo se utilizaba en un “número limitado de tiendas”. La prueba se detuvo hace más de tres años antes de que comenzara la investigación de la FTC.
La presentación legal de la FTC, que contiene quejas de clientes que abarcan desde 2012 hasta 2020, decía que algunos clientes fueron “acusados erróneamente por empleados de irregularidades” porque la tecnología de Rite Aid “señaló falsamente que los consumidores coincidían con alguien que había sido previamente identificado como un ladrón u otro alborotador." El software de reconocimiento facial se implementó principalmente en vecindarios con grandes comunidades negras, latinas y asiáticas, dijo la FTC.
"El uso imprudente de los sistemas de vigilancia facial por parte de Rite Aid dejó a sus clientes frente a humillaciones y otros daños, y sus violaciones de órdenes ponen en riesgo la información confidencial de los consumidores", dijo Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, en un comunicado.
La orden propuesta significa que Rite Aid tendrá que "implementar salvaguardias integrales" para evitar daños a sus clientes al implementar la tecnología basada en IA en sus ubicaciones. La orden también impide que Rite Aid utilice la tecnología si "no puede controlar los riesgos potenciales para los consumidores".
"La seguridad de nuestros asociados y clientes es primordial", dijo Rite Aid. "Como parte del acuerdo con la FTC, continuaremos mejorando y formalizando las prácticas y políticas de nuestro programa integral de seguridad de la información".
El programa piloto implicó la creación de una base de datos de miles de fotografías de baja calidad tomadas de las cámaras de las tiendas y de los teléfonos de los empleados de los rostros de los clientes, que fueron etiquetados como "personas de interés" porque Rite Aid pensó que estaban involucrados en actividades delictivas en sus tiendas. La FTC exige que Rite Aid elimine esas imágenes y notifique a los clientes que están en una base de datos.
Dado que Rite Aid está en proceso de quiebra, la FTC dijo que sus órdenes entrará en vigor después de la aprobación de los tribunales.