Incidents associés

Un ancien coursier d'Uber Eats a intenté une action en justice contre l'entreprise de livraison de nourriture, alléguant qu'il avait été injustement licencié en raison du logiciel de reconnaissance faciale "raciste" de l'entreprise.
Les chauffeurs Uber Eats sont tenus de prendre un selfie avant de commencer un quart de travail pour vérifier leur identité. Cependant, Pa Edrissa Manjang a déclaré que l'application Uber Eats lui avait dit de prendre plusieurs selfies par jour parce que le logiciel pensait à tort qu'il était quelqu'un d'autre.
"Votre algorithme, à première vue, est raciste", a déclaré Manjang, qui est noir.
Mercredi, un tribunal du travail a rejeté la requête d'Uber visant à rejeter la plainte pour discrimination, ce qui signifie que l'affaire passera à une audience complète.
Un porte-parole d'Uber a déclaré _UKTN _que "la vérification faciale automatisée n'était pas la raison de la perte temporaire d'accès de M. Manjang à son compte de messagerie".
Le porte-parole a ajouté que la vérification d'identité en temps réel d'Uber Eats est utilisée à des fins de sécurité.
"Le système comprend un examen humain robuste pour s'assurer que nous ne prenons pas de décisions concernant les moyens de subsistance de quelqu'un dans le vide, sans surveillance", a déclaré le porte-parole.
Manjang raconté le Guardian qu'Uber ne 't "valoriser" ou "respecter" ses chauffeurs-livreurs et qu'il agit de manière "agressive".
"Donc, par conséquent, pour les personnes qui travaillent pour eux, nous ne sommes que des numéros", a déclaré Manjang.
Biais de l'IA
Ce n'est pas la première fois qu'Uber fait face à des accusations selon lesquelles son logiciel de reconnaissance faciale est raciste. En octobre de l'année dernière, Abiodun Ogunyemi [a déposé une plainte auprès du tribunal du travail](https://www.theguardian.com/technology/2021/oct/05/ex-uber-driver-takes-legal-action-over-racist-face -logiciel de reconnaissance) après que le logiciel automatisé de numérisation du visage d'Uber ne l'ait pas reconnu, ce qui a entraîné son licenciement.
Les experts en intelligence artificielle affirment que les systèmes de reconnaissance faciale ne sont généralement pas aussi précis pour identifier les personnes issues de minorités ethniques. Ils disent que c'est souvent parce que les données utilisées pour former l'algorithme ont tendance à pencher vers les hommes blancs, ce qui rend le logiciel plus précis pour identifier les personnes de ce groupe démographique par rapport aux autres.
Uber n'est pas la seule entreprise confrontée à des problèmes juridiques liés à l'utilisation de la technologie de reconnaissance faciale. Hier, Big Brother Watch a déposé une plainte contre Southern Co-op pour l'utilisation de la technologie dans 35 de ses magasins.
[Clearview AI a été condamné à une amende] (https://www.uktech.news/big-data/ico-fine-clearview-facial-recognition-data-20220524) 7,5 millions de livres sterling par le Bureau du commissaire à l'information (ICO) plus tôt cette année pour collecter illégalement des milliards d'images. L'ICO est actuellement enquêtant si AI a un Préjugé racial.
Cela arrive à un moment où l'utilisation des applications d'identification numérique augmente progressivement à travers le pays. Certains cinémas ont commencé à accepter les identifiants numériques comme méthode pour prouver l'âge.