Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4301

Incidents associés

Incident 8444 Rapports
SafeRent AI Screening Tool Allegedly Discriminated Against Housing Voucher Applicants

Louis, et al. c. SafeRent Solutions, et al.
cohenmilstein.com · 2024

Présentation

Mary Louis, Monica Douglas et la Community Action Agency de Somerville, les plaignants, allèguent que SafeRent Solutions, LLC, qui fournit des services de sélection de locataires aux propriétaires et aux propriétaires fonciers, viole la loi sur le logement équitable et les lois d'État connexes depuis des années parce que son algorithme de logiciel de sélection de locataires donne de manière disproportionnée des notes faibles aux candidats à la location noirs et hispaniques qui utilisent des bons de logement financés par le gouvernement fédéral, ce qui leur fait refuser un logement. Les plaignants affirment que cela est dû en partie à l'utilisation par SafeRent de l'historique de crédit, qui comprend les dettes non liées à la location.

Les scores SafeRent sont conçus, commercialisés et utilisés pour sélectionner les locataires potentiels pour un logement locatif. Ces scores ne peuvent cependant pas être ajustés par le propriétaire et une variable comme un bon de logement ne peut pas être pondérée dans le score, mais le score est utilisé pour décider si un candidat sera accepté. L'algorithme de SafeRent Score, par exemple, ne prend pas en compte les avantages financiers des bons de logement dans l'attribution des scores. Plus précisément, lorsqu'un bon de logement est utilisé, en moyenne plus de 73 % du paiement mensuel du loyer est versé par les autorités de logement public directement aux fournisseurs de logements.

Les plaignants cherchent à mettre fin aux pratiques de sélection des locataires des défendeurs qui ont un impact négatif sur les demandeurs de logement noirs et hispaniques et à créer des conditions de jeu équitables pour ceux qui utilisent des bons de logement.

Règlement et mises à jour importantes

  • Le 20 novembre 2024, l'honorable Angel Kelley du tribunal de district des États-Unis du Massachusetts a accordé l'approbation finale d'un règlement de 2,275 millions de dollars. Le règlement établit également une injonction importante pour les demandeurs locataires qui dépendent des bons et peuvent être soumis à la sélection des locataires SafeRent.
  • Le règlement protégerait les détenteurs de bons du Massachusetts de toute future évaluation discriminatoire grâce à l'utilisation d'un score SafeRent.
  • L'injonction est importante pour garantir l'intention initiale des programmes de bons du pays - 1) aider à effacer la discrimination historique sur les marchés du logement, et 2) donner aux détenteurs de bons plus de choix quant à l'endroit où ils vivent.
  • La mesure injonctive prévue dans ce règlement établit une base de référence que les sociétés de sélection des locataires à l'échelle nationale devraient suivre.
  • Avis important aux membres du groupe : Pour en savoir plus sur le règlement et comment déposer une réclamation si vous êtes membre du groupe, veuillez visiter le site Web officiel du règlement à l'adresse MATenantScreeningSettlement.com.

Autres décisions et requêtes

  • Le 26 juillet 2023, l'honorable Angel Kelley du tribunal de district des États-Unis du Massachusetts a rejeté la requête des défendeurs visant à rejeter les réclamations au titre de la loi sur le logement équitable, estimant que SafeRent Solutions, LLC, un fournisseur national de sélection des locataires anciennement connu sous le nom de CoreLogic Rental Property Solutions, est soumis à l'interdiction de discrimination raciale dans le logement prévue par la loi sur le logement équitable. Même si SafeRent n'est pas un propriétaire, le tribunal a déterminé que les plaignants avaient allégué de manière adéquate que les propriétaires fonciers s'appuyaient uniquement sur le score de sélection des locataires de SafeRent et avaient allégué de manière adéquate que ces scores avaient un impact différent sur les locataires noirs et hispaniques. Les réclamations de la FHA contre le propriétaire Metropolitan ont également été autorisées à se poursuivre, tandis que les réclamations en vertu d'une loi de protection des consommateurs du Massachusetts ont été rejetées.
  • Le 9 janvier 2023, le ministère américain de la Justice et le ministère américain du Logement et du Développement urbain ont annoncé qu'ils avaient déposé une déclaration d'intérêt dans cette affaire.

Contexte de l'affaire

Le 25 mai 2022, Cohen Milstein et son co-avocat, Greater Boston Legal Services et National Consumer Law Center, ont déposé une action collective putative au nom de Mary Louis, Monica Douglas et de la Community Action Agency of Somerville contre SafeRent Solutions, LLC devant le tribunal de district américain du district du Massachusetts. Les plaignants affirment que SafeRent, qui fournit des services de sélection de locataires aux propriétaires et aux propriétaires fonciers, viole depuis des années la loi sur le logement équitable et les lois d'État connexes parce que son algorithme de logiciel de sélection de locataires attribue de manière disproportionnée des notes faibles aux candidats à la location noirs et hispaniques qui utilisent des bons de logement financés par le gouvernement fédéral, ce qui fait qu'ils se voient refuser un logement.

Les plaignants affirment que SafeRent attribue des scores SafeRent disproportionnellement inférieurs aux candidats à la location noirs et hispaniques par rapport aux candidats à la location blancs, ce qui est dû en partie à l'utilisation par SafeRent de l'historique de crédit, qui comprend les dettes non liées à la location. Selon une étude de 2022 menée par l'Urban Institute, en octobre 2021, les consommateurs noirs ont un score de crédit médian de 612 et les consommateurs hispaniques ont un score de crédit médian de 661, par rapport au score de crédit médian des consommateurs blancs de 725, ce qui conduit à un biais injuste dans l'acceptation de la demande de location d'un candidat. Ainsi, la plainte allègue que l'inclusion de ces informations sur les antécédents de crédit dans la production des scores SafeRent entraîne que les scores SafeRent sont disproportionnellement inférieurs pour les candidats à la location noirs et hispaniques.

Les scores SafeRent sont conçus, commercialisés et utilisés pour sélectionner les locataires potentiels pour un logement locatif. Ces scores, cependant, font que les candidats à la location noirs et hispaniques se voient refuser un logement de manière disproportionnée. Le score ne peut pas être ajusté par le propriétaire et une variable comme un bon de logement ne peut pas être pondérée dans le score, mais le score est utilisé pour décider si un candidat sera accepté. L'algorithme du score SafeRent, par exemple, ne prend pas en compte les avantages financiers des bons de logement dans l'attribution des scores. Plus précisément, lorsqu'un bon de logement est utilisé, en moyenne plus de 73 % du paiement mensuel du loyer est payé par les autorités de logement public directement aux fournisseurs de logements.

Le nom de l'affaire est : Louis, et al. v. SafeRent Solutions, et al., affaire n° 1 : 22-cv-10800, tribunal de district des États-Unis pour le district du Massachusetts

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e