
Le ministère du Logement et du Développement urbain (HUD) a accusé jeudi Facebook d'encourager et de permettre la discrimination en matière de logement par le biais de ses pratiques publicitaires ciblées.
HUD accuse Facebook d'avoir enfreint le Fair Housing Act, une loi fédérale qui interdit la discrimination à l'encontre des personnes cherchant à acheter ou à louer une maison.
"Facebook discrimine les gens en fonction de leur identité et de leur lieu de résidence", a déclaré le secrétaire du HUD, Ben Carson, dans un communiqué. "Utiliser un ordinateur pour limiter les choix de logement d'une personne peut être tout aussi discriminatoire que de claquer une porte au nez de quelqu'un."
L'accusation fait suite à une enquête de plusieurs mois menée par HUD pour déterminer si Facebook autorise illégalement les vendeurs immobiliers à restreindre leurs publicités en fonction de caractéristiques telles que la race.
Plus tôt ce mois-ci, Facebook a accepté d'adopter des réformes radicales de son système de ciblage publicitaire dans le cadre d'un règlement avec des groupes de défense des droits civiques alléguant des plaintes similaires. Les groupes de défense des droits, dont un dédié au logement, ont allégué que le géant de la technologie permettait aux annonceurs de discriminer les groupes marginalisés.
Dans le cadre de ce règlement, Facebook ne permettra plus aux annonceurs de cibler ou d'exclure les annonces de logement par âge, sexe ou code postal, et il a également supprimé des centaines d'options de ciblage pour toute personne faisant la publicité de logements, de crédit ou d'opportunités d'emploi.
La société, dans le cadre du règlement, a également déclaré qu'elle créerait un nouveau portail pour permettre aux utilisateurs de rechercher et de visualiser des annonces immobilières aux États-Unis, quel que soit le public que les annonceurs espéraient cibler.
Facebook s'est dit surpris par la décision de HUD et a déclaré avoir apporté des modifications à sa plate-forme pour réduire les abus par les annonceurs.
"Nous sommes surpris par la décision de HUD, car nous avons travaillé avec eux pour répondre à leurs préoccupations et avons pris des mesures importantes pour prévenir la discrimination publicitaire", a déclaré un porte-parole de Facebook. "L'année dernière, nous avons éliminé des milliers d'options de ciblage qui pourraient être utilisées à mauvais escient, et la semaine dernière, nous avons conclu des accords historiques avec la National Fair Housing Alliance, [American Civil Liberties Union] ACLU, et d'autres qui changent la façon dont les annonces de logement, de crédit et d'emploi peut être exécuté sur Facebook."
"Alors que nous étions impatients de trouver une solution, HUD a insisté sur l'accès aux informations sensibles - comme les données des utilisateurs - sans garanties adéquates", a ajouté le porte-parole. "Nous sommes déçus par les développements d'aujourd'hui, mais nous continuerons à travailler avec des experts des droits civiques sur ces questions."
Selon HUD, Facebook a autorisé les publicités à exclure les personnes de voir les annonces de logement en fonction d'intérêts qui "s'alignent étroitement sur les classes protégées du Fair Housing Act", y compris les utilisateurs que Facebook a classés comme non nés aux États-Unis, non chrétiens, intéressés par l'accessibilité ou qui s'intéressaient à la culture hispanique, en plus d'autres groupes.
Facebook a supprimé en août dernier des milliers d'options de ciblage que la publicité pourrait utiliser pour exclure des publics en fonction de l'ethnicité, du sexe et de la religion, a noté la société.
HUD affirme que Facebook a permis aux annonceurs d'exclure des personnes en fonction de leur quartier "en traçant une ligne rouge autour de ces quartiers sur une carte".
Enfin, la charge de HUD affirme que les outils d'apprentissage automatique et d'intelligence artificielle (IA) de Facebook "classifient et regroupent les utilisateurs pour projeter la réponse probable de chaque utilisateur à une annonce donnée", créant potentiellement des groupements définis par leur classe protégée.
Facebook affirme que HUD n'a trouvé aucune preuve que ses systèmes d'IA sont discriminatoires à l'égard des personnes.
Le débat sur les pratiques publicitaires ciblées de Facebook a été déclenché à l'origine lorsque ProPublica a rapporté en 2016 que Facebook autorisait les annonceurs à exclure certains utilisateurs en fonction de "l'affinité ethnique", ce qui, selon les critiques, est utilisé comme indicateur de race et d'ethnicité.
Depuis lors, des groupes de logement, d'emploi et de défense des droits civiques ont fait part de leurs inquiétudes quant au fait que Facebook contournait les lois sur les droits civils en permettant aux annonceurs de cibler ou d'exclure certains groupes étroitement liés à des catégories de personnes protégées.
"Même si nous sommes confrontés aux nouvelles technologies, les lois sur le logement équitable promulguées il y a plus d'un demi-siècle restent claires - la discrimination dans la publicité liée au logement est contraire à la loi", a déclaré l'avocat général du HUD, Paul Compton. "Ce n'est pas parce qu'un processus de diffusion de publicité est opaque et complexe qu'il est [sic] exempte Facebook et d'autres de notre examen et de la loi du pays."