Incidentes Asociados

Un ex mensajero de Uber Eats inició acciones legales contra la empresa de entrega de alimentos, alegando que fue despedido injustamente debido al software de reconocimiento facial "racista" de la empresa.
Los conductores de Uber Eats deben tomarse una selfie antes de comenzar un turno para verificar su identidad. Sin embargo, Pa Edrissa Manjang dijo que la aplicación Uber Eats le dijo que se tomara varias selfies al día porque el software pensó incorrectamente que era otra persona.
“Su algoritmo, por lo que parece, es racista”, dijo Manjang, quien es negro.
El miércoles, un tribunal laboral rechazó la moción de Uber para desestimar el reclamo por discriminación, lo que significa que el caso pasará a una audiencia completa.
Un portavoz de Uber dijo _UKTN _que "la verificación facial automática no fue el motivo de la pérdida temporal de acceso del Sr. Manjang a su cuenta de mensajería".
El portavoz agregó que la verificación de identificación en tiempo real de Uber Eats se utiliza con fines de seguridad.
“El sistema incluye una sólida revisión humana para asegurarnos de que no estamos tomando decisiones sobre el sustento de alguien en el vacío, sin supervisión”, dijo el portavoz.
Manjang dijo el Guardian que Uber no no “valora” ni “respeta” a sus repartidores y que actúa de “manera agresiva”.
“Entonces, como resultado, para las personas que trabajan para ellos, somos solo números”, dijo Manjang.
sesgo de IA
No es la primera vez que Uber enfrenta acusaciones de que su software de reconocimiento facial tiene prejuicios raciales. En octubre del año pasado, Abiodun Ogunyemi [presentó un caso ante un tribunal laboral](https://www.theguardian.com/technology/2021/oct/05/ex-uber-driver-takes-legal-action-over-racist-face -recognition-software) después de que el software automatizado de escaneo facial de Uber no lo reconociera, lo que provocó su despido.
Los expertos en inteligencia artificial dicen que los sistemas de reconocimiento facial generalmente no son tan precisos para identificar a las personas de minorías étnicas. Dicen que esto se debe a menudo a que los datos utilizados para entrenar el algoritmo tienden a inclinarse hacia los hombres blancos, lo que hace que el software sea más preciso para identificar a las personas de ese grupo demográfico en comparación con otras.
Uber no es la única empresa que enfrenta problemas legales por el uso de la tecnología de reconocimiento facial. Ayer, Big Brother Watch presentó una queja contra Southern Co-op por el uso de la tecnología en 35 de sus historias.
Clearview AI fue multado £7.5m por parte de la Oficina del Comisionado de Información (ICO) a principios de este año por recopilar ilegalmente miles de millones de imágenes. La ICO está investigando actualmente si la IA tiene un sesgo racial.
Llega en un momento en que el uso de aplicaciones de identificación digital está aumentando gradualmente en todo el país. Algunos cines han comenzado a aceptar identificaciones digitales como método para probar la edad.