Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4300

Incidents associés

Incident 8444 Rapports
SafeRent AI Screening Tool Allegedly Discriminated Against Housing Voucher Applicants

Loading...
L'outil de sélection des propriétaires basé sur l'IA cessera de noter les locataires à faibles revenus après un procès pour discrimination
theverge.com · 2024

SafeRent, un outil de sélection d'IA utilisé par les propriétaires, n'utilisera plus de « scores » alimentés par l'IA pour évaluer si une personne utilisant des bons de logement ferait un bon locataire. Mercredi, la juge de district américaine Angel Kelley a donné son approbation finale pour un règlement d'environ 2,3 millions de dollars visant à empêcher SafeRent de discriminer les locataires en fonction de leurs revenus et de leur race.

Le règlement découle d'un recours collectif intenté en 2022](https://www.cohenmilstein.com/case-study/louis-et-al-v-saferent-solutions-et-al/) dans le Massachusetts. La poursuite alléguait que le système de notation de SafeRent nuisait de manière disproportionnée aux personnes utilisant des bons de logement, en particulier aux candidats noirs et hispaniques. En plus de violer la loi du Massachusetts, la plainte accuse également SafeRent d'avoir enfreint la loi sur le logement équitable, qui interdit la discrimination en matière de logement.

Comme indiqué dans la plainte initiale, l'algorithme de notation de SafeRent utilise des facteurs tels que l'historique de crédit et les dettes non liées à la location pour attribuer un score SafeRent aux locataires potentiels. Les propriétaires peuvent ensuite utiliser ce score pour déterminer s'ils doivent accepter ou refuser la demande de location d'une personne. La plainte affirme que le processus n'est pas transparent, car SafeRent ne dit pas aux propriétaires comment il est arrivé au score d'une personne. Et le système aurait attribué des scores inférieurs de manière injuste aux locataires noirs et hispaniques, ainsi qu'aux personnes qui utilisent des bons de logement, ce qui a conduit les propriétaires à refuser leurs demandes de logement.

En vertu de l'accord de cinq ans, SafeRent n'affichera plus de score de sélection des locataires pour les candidats utilisant des bons de logement à l'échelle nationale, et ne pourra pas non plus inclure de score lorsque les propriétaires utilisent son modèle de score SafeRent « abordable ». Le service de SafeRent ne peut pas non plus afficher de recommandations sur l'acceptation ou le refus d'une demande de logement si elle utilise des bons de logement. Cela signifie que les propriétaires devront désormais évaluer les locataires qui utilisent des bons de logement en fonction de l'ensemble de leur dossier, plutôt que de se contenter de leur score SafeRent.

"Les scores de crédit et les scores modélisés de manière similaire, tels que les scores SafeRent, s'appuient sur des informations qui n'ont été testées que pour prédire le remboursement des obligations de crédit", a déclaré Shennan Kavanagh, directeur du contentieux au National Consumer Law Center, dans un communiqué. "Il n'y a aucune preuve que ces données permettent de prédire que les locataires paient un loyer".

L'argent collecté dans le cadre de l'accord ira aux demandeurs de location basés dans le Massachusetts qui ont utilisé des bons de logement et n'ont pas pu obtenir de logement en raison du score de locataire de SafeRent. « Bien que SafeRent continue de croire que les scores SRS [SafeRent Solutions] sont conformes à toutes les lois applicables, les litiges prennent du temps et sont coûteux », a déclaré Yazmin Lopez, porte-parole de SafeRent, dans une déclaration à The Verge. « Il est devenu de plus en plus évident que défendre le score SRS dans cette affaire détournerait du temps et des ressources que SafeRent pourrait mieux utiliser pour remplir sa mission principale, qui consiste à donner aux fournisseurs de logements les outils dont ils ont besoin pour filtrer les candidats. »

SafeRent est le dernier logiciel de gestion immobilière basé sur des algorithmes à faire l'objet d'une action en justice. En août, le ministère de la Justice a intenté une action en justice RealPage pour avoir affirmé que son logiciel de tarification algorithmique augmentait les loyers.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd