Incidents associés

Facebook refuse certaines offres d'emploi aux femmes en raison de leur sexe, selon le dernier audit de son service de publicité.
L'audit, mené par des chercheurs indépendants de l'Université de Californie du Sud (USC), révèle que le système de diffusion d'annonces de Facebook affiche différentes offres d'emploi pour les femmes et les hommes même si les emplois exigent les mêmes qualifications. Ceci est considéré comme une discrimination fondée sur le sexe en vertu de la loi américaine sur l'égalité des chances dans l'emploi, qui interdit le ciblage publicitaire basé sur des caractéristiques protégées. Les résultats surviennent malgré des années de plaidoyer et de poursuites judiciaires, et après les promesses de Facebook de revoir la façon dont il diffuse des publicités.
Les chercheurs se sont inscrits en tant qu'annonceurs sur Facebook et ont acheté des paires d'annonces pour des emplois avec des qualifications identiques mais des données démographiques réelles différentes. Ils ont annoncé pour deux emplois de chauffeur-livreur, par exemple : un pour Domino's (livraison de pizzas) et un pour Instacart (livraison de courses). Il y a actuellement plus d'hommes que de femmes qui conduisent pour Domino's, et vice versa pour Instacart.
Bien qu'aucune audience n'ait été spécifiée sur la base d'informations démographiques, [une fonctionnalité Facebook désactivée](https://www.technologyreview.com/2019/03/20/1225/facebook-is-going-to-stop-letting-advertisers -target-by-race-gender-or-age/) pour les annonces de logement, de crédit et d'emploi en mars 2019 après avoir réglé plusieurs procès, les algorithmes montraient toujours les annonces à des groupes démographiques statistiquement distincts. L'annonce Domino's a été montrée à plus d'hommes que de femmes, et l'annonce Instacart a été montrée à plus de femmes que d'hommes.
Les chercheurs ont trouvé le même schéma avec des annonces pour deux autres paires d'emplois : ingénieurs logiciels pour Nvidia (homme biaisé) et Netflix (femme biaisée), et vendeurs pour voitures (homme biaisé) et bijoux (femme biaisée).
Les résultats suggèrent que les algorithmes de Facebook reprennent en quelque sorte la répartition démographique actuelle de ces emplois, qui diffèrent souvent pour des raisons historiques. (Les chercheurs n'ont pas été en mesure de discerner pourquoi, car Facebook ne dira pas comment fonctionne son système de diffusion de publicités.) "Facebook reproduit ces biais lorsqu'il diffuse des publicités même s'il n'y a aucune justification de qualification", explique Aleksandra Korolova, une professeur adjoint à l'USC, qui a co-écrit l'étude avec son collègue John Heidemann et leur doctorant Basileal Imana.
L'étude fournit les dernières preuves que Facebook n'a pas résolu ses problèmes de discrimination publicitaire depuis que ProPublica [a mis en lumière le problème en octobre 2016](https://www.propublica.org/article/facebook-lets-advertisers-exclude-users -par race). À l'époque, ProPublica a révélé que la plate-forme permettait aux annonceurs d'opportunités d'emploi et de logement d'exclure certains publics caractérisés par des traits tels que le sexe et la race. Ces groupes bénéficient d'une protection spéciale en vertu de la loi américaine, ce qui rend cette pratique illégale. Il a fallu deux ans et demi et plusieurs escarmouches juridiques pour que Facebook [supprime enfin cette fonctionnalité](https://www.aclu.org/blog/womens-rights/womens-rights-workplace/facebook-settles-civil-rights- fabrication de caisses-balayage).
Mais quelques mois plus tard, le Département américain du logement et du développement urbain (HUD) a intenté une nouvelle action en justice, alléguant que les algorithmes de diffusion d'annonces de Facebook excluaient toujours les audiences pour les annonces immobilières sans que l'annonceur précise l'exclusion. Une équipe de chercheurs indépendants comprenant Korolova, dirigée par Muhammad Ali et Piotr Sapieżyński de l'Université du Nord-Est, [a corroboré ces allégations une semaine plus tard](https://www.technologyreview.com/2019/04/05/1175/facebook-algorithm-discriminates -ai-bias/). Ils ont constaté, par exemple, que les maisons à vendre étaient plus souvent montrées aux utilisateurs blancs et que les maisons à louer étaient plus souvent montrées aux utilisateurs minoritaires.
Korolova a voulu revenir sur la question avec son dernier audit car la charge de la preuve pour la discrimination dans l'emploi est plus élevée que pour la discrimination dans le logement. Alors que tout biais dans l'affichage d'annonces basé sur des caractéristiques protégées est illégal dans le cas du logement, le droit du travail américain le juge justifiable si le biais est dû à des différences de qualification légitimes. La nouvelle méthodologie contrôle ce facteur.
"La conception de l'expérience est très propre", déclare Sapieżyński, qui n'a pas participé à la dernière étude. Alors que certains pourraient affirmer que les vendeurs de voitures et de bijoux ont en effet des qualifications différentes, dit-il, les différences entre la livraison de pizzas et la livraison de produits d'épicerie sont négligeables. "Ces différences entre les sexes ne peuvent pas être expliquées par des différences entre les sexes dans les qualifications ou un manque de qualifications", ajoute-t-il. "Facebook ne peut plus dire [c'est] défendable par la loi."
La publication de cet audit intervient au milieu d'un examen approfondi du travail de Facebook sur les biais d'IA. En mars, MIT Technology Review a publié les résultats d'une enquête de neuf mois sur l'IA responsable de l'entreprise équipe, qui a constaté que l'équipe, formée pour la première fois en 2018, avait négligé de travailler sur des problèmes tels que l'amplification algorithmique de la désinformation et la polarisation en raison de sa focalisation aveugle sur le biais de l'IA. L'entreprise a publié un article de blog peu de temps après, soulignant l'importance de ce travail et précisant notamment que Facebook cherche "à mieux comprendre les erreurs potentielles susceptibles d'affecter notre système de publicité, dans le cadre de notre travail continu et plus large d'étude de l'équité algorithmique dans les publicités".
"Nous avons pris des mesures significatives pour résoudre les problèmes de discrimination dans les publicités et avons des équipes qui travaillent aujourd'hui sur l'équité des publicités", a déclaré le porte-parole de Facebook, Joe Osborn, dans un communiqué. "Notre système prend en compte de nombreux signaux pour essayer de diffuser des annonces aux personnes qui les intéresseront le plus, mais nous comprenons les préoccupations soulevées dans le rapport... Nous continuons à travailler en étroite collaboration avec la communauté des droits civiques, les régulateurs et les universitaires. sur ces questions importantes.
Malgré ces affirmations, cependant, Korolova dit qu'elle n'a trouvé aucun changement notable entre l'audit de 2019 et celui-ci dans le fonctionnement des algorithmes de diffusion de publicités de Facebook. "De ce point de vue, c'est en fait vraiment décevant, car nous avons porté cela à leur attention il y a deux ans", dit-elle. Elle a également proposé de travailler avec Facebook pour résoudre ces problèmes, dit-elle. "Nous n'avons pas eu de réponse. Au moins pour moi, ils n'ont pas tendu la main."
Lors d'entretiens précédents, la société a déclaré qu'elle n'était pas en mesure de discuter des détails de la manière dont elle travaillait pour atténuer la discrimination algorithmique dans son service publicitaire en raison d'un litige en cours. L'équipe publicitaire a déclaré que ses progrès avaient été limités par des défis techniques.
Sapieżyński, qui a maintenant effectué trois audits de la plate-forme, affirme que cela n'a rien à voir avec le problème. "Facebook n'a toujours pas reconnu qu'il y a un problème", dit-il. Pendant que l'équipe résout les problèmes techniques, ajoute-t-il, il existe également une solution provisoire simple : elle pourrait désactiver le ciblage algorithmique des annonces spécifiquement pour le logement, l'emploi et les annonces de prêt sans affecter le reste de son service. C'est vraiment juste une question de volonté politique, dit-il.
Christo Wilson, un autre chercheur de Northeastern qui étudie le biais algorithmique mais n'a pas participé aux recherches de Korolova ou de Sapieżyński, est d'accord : "Combien de fois les chercheurs et les journalistes doivent-ils trouver ces problèmes avant d'accepter que tout le système de ciblage publicitaire est en faillite ?"