Incidents associés
SafeRent, un outil de sélection d'IA utilisé par les propriétaires, n'utilisera plus de « scores » alimentés par l'IA pour évaluer si une personne utilisant des bons de logement ferait un bon locataire. Mercredi, la juge de district américaine Angel Kelley a donné son approbation finale pour un règlement d'environ 2,3 millions de dollars visant à empêcher SafeRent de discriminer les locataires en fonction de leurs revenus et de leur race.
Le règlement découle d'un recours collectif intenté en 2022](https://www.cohenmilstein.com/case-study/louis-et-al-v-saferent-solutions-et-al/) dans le Massachusetts. La poursuite alléguait que le système de notation de SafeRent nuisait de manière disproportionnée aux personnes utilisant des bons de logement, en particulier aux candidats noirs et hispaniques. En plus de violer la loi du Massachusetts, la plainte accuse également SafeRent d'avoir enfreint la loi sur le logement équitable, qui interdit la discrimination en matière de logement.
Comme indiqué dans la plainte initiale, l'algorithme de notation de SafeRent utilise des facteurs tels que l'historique de crédit et les dettes non liées à la location pour attribuer un score SafeRent aux locataires potentiels. Les propriétaires peuvent ensuite utiliser ce score pour déterminer s'ils doivent accepter ou refuser la demande de location d'une personne. La plainte affirme que le processus n'est pas transparent, car SafeRent ne dit pas aux propriétaires comment il est arrivé au score d'une personne. Et le système aurait attribué des scores inférieurs de manière injuste aux locataires noirs et hispaniques, ainsi qu'aux personnes qui utilisent des bons de logement, ce qui a conduit les propriétaires à refuser leurs demandes de logement.
En vertu de l'accord de cinq ans, SafeRent n'affichera plus de score de sélection des locataires pour les candidats utilisant des bons de logement à l'échelle nationale, et ne pourra pas non plus inclure de score lorsque les propriétaires utilisent son modèle de score SafeRent « abordable ». Le service de SafeRent ne peut pas non plus afficher de recommandations sur l'acceptation ou le refus d'une demande de logement si elle utilise des bons de logement. Cela signifie que les propriétaires devront désormais évaluer les locataires qui utilisent des bons de logement en fonction de l'ensemble de leur dossier, plutôt que de se contenter de leur score SafeRent.
"Les scores de crédit et les scores modélisés de manière similaire, tels que les scores SafeRent, s'appuient sur des informations qui n'ont été testées que pour prédire le remboursement des obligations de crédit", a déclaré Shennan Kavanagh, directeur du contentieux au National Consumer Law Center, dans un communiqué. "Il n'y a aucune preuve que ces données permettent de prédire que les locataires paient un loyer".
L'argent collecté dans le cadre de l'accord ira aux demandeurs de location basés dans le Massachusetts qui ont utilisé des bons de logement et n'ont pas pu obtenir de logement en raison du score de locataire de SafeRent. « Bien que SafeRent continue de croire que les scores SRS [SafeRent Solutions] sont conformes à toutes les lois applicables, les litiges prennent du temps et sont coûteux », a déclaré Yazmin Lopez, porte-parole de SafeRent, dans une déclaration à The Verge. « Il est devenu de plus en plus évident que défendre le score SRS dans cette affaire détournerait du temps et des ressources que SafeRent pourrait mieux utiliser pour remplir sa mission principale, qui consiste à donner aux fournisseurs de logements les outils dont ils ont besoin pour filtrer les candidats. »
SafeRent est le dernier logiciel de gestion immobilière basé sur des algorithmes à faire l'objet d'une action en justice. En août, le ministère de la Justice a intenté une action en justice RealPage pour avoir affirmé que son logiciel de tarification algorithmique augmentait les loyers.