Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 844: SafeRent AI Screening Tool Allegedly Discriminated Against Housing Voucher Applicants

概要: SafeRent’s AI-powered tenant screening tool used credit history and non-rental-related debts to assign scores, disproportionately penalizing Black and Hispanic renters and those using housing vouchers. The reported discriminatory housing outcomes violated the Fair Housing Act and Massachusetts law. A class action lawsuit (Louis, et al. v. SafeRent Solutions, et al.) resulted in a $2.275 million settlement and changes to SafeRent’s practices.
Editor Notes: Reconstructing the timeline of events: (1) May 25, 2022, a class action lawsuit was filed against SafeRent Solutions in the U.S. District Court for the District of Massachusetts. It alleged violations of the Fair Housing Act and state laws due to algorithmic discrimination against Black and Hispanic rental applicants using housing vouchers. (2) January 9, 2023, the U.S. Department of Justice and the Department of Housing and Urban Development filed a statement of interest supporting the case. (3) July 26, 2023, the court denied SafeRent’s motion to dismiss and ruled that the plaintiffs sufficiently alleged that SafeRent’s scoring system caused disparate impacts. (4) November 20, 2024, the court approved a $2.275 million settlement with injunctive relief to prohibit discriminatory tenant scoring practices, setting a national precedent for fair tenant screening.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: SafeRent Solutions developed an AI system deployed by Landlords, which harmed Renters , Massachusetts renters , Hispanic renters , Black renters , Mary Louis と Monica Douglas.

インシデントのステータス

インシデントID
844
レポート数
4
インシデント発生日
2022-05-25
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

Incident Occurrence司法省、アルゴリズムに基づく入居者審査慣行�の違法性を主張する公正住宅法訴訟で利害関係の声明を提出+2
AI 家主審査ツール、差別訴訟を受けて低所得入居者の採点を停止
司法省、アルゴリズムに基づく入居者審査慣行の違法性を主張する公正住宅法訴訟で利害関係の声明を提出

司法省、アルゴリズムに基づく入居者審査慣行の違法性を主張する公正住宅法訴訟で利害関係の声明を提出

justice.gov

AI 家主審査ツール、差別訴訟を受けて低所得入居者の採点を停止

AI 家主審査ツール、差別訴訟を受けて低所得入居者の採点を停止

theverge.com

Louis 他 対 SafeRent Solutions 他

Louis 他 対 SafeRent Solutions 他

cohenmilstein.com

彼女はAIが生成したスコアのせいでアパートを借りられず、他の人が同じ運命を辿らないようにするために訴訟を起こした。

彼女はAIが生成したスコアのせいでアパートを借りられず、他の人が同じ運命を辿らないようにするために訴訟を起こした。

theguardian.com

司法省、アルゴリズムに基づく入居者審査慣行の違法性を主張する公正住宅法訴訟で利害関係の声明を提出
justice.gov · 2023
自動翻訳済み

司法省と住宅都市開発省(HUD)は本日、アルゴリズムベースの入居者審査システムへの公正住宅法(FHA)の適用を説明するため、利害関係表明書を提出したと発表した。利害関係表明書は、現在マサチューセッツ州連邦地方裁判所で係争中の*Louis et al. v. SafeRent et al.*訴訟で提出されたもので、被告が入居者審査にアルゴリズムベースのスコアリングシステムを使用したことで、黒人およびヒスパニック系の賃貸希望者が差別され、FHAに違反していると主張している。

「ア…

AI 家主審査ツール、差別訴訟を受けて低所得入居者の採点を停止
theverge.com · 2024
自動翻訳済み

家主が使用するAIスクリーニングツールであるSafeRentは、住宅バウチャーを使用する人が良い入居者になるかどうかを評価するために、AIを搭載した「スコア」を使用しなくなります。水曜日、米国地方裁判所のAngel Kelley判事は、SafeRentが収入と人種に基づいて入居者を差別するのを防ぐため、約230万ドルの和解金の最終承認を発行しました。

この和解は、マサチューセッツ州で2022年に提起された集団訴訟に端を発しています。訴訟では、SafeRent のスコアリング …

Louis 他 対 SafeRent Solutions 他
cohenmilstein.com · 2024
自動翻訳済み

概要

原告の Mary Louis、Monica Douglas、および Somerville の Community Action Agency は、家主や不動産所有者に入居審査サービスを提供する SafeRent Solutions, LLC が、連邦政府資金による住宅バウチャーを使用する黒人およびヒスパニック系の賃貸申請者に不当に低いスコアを与え、住宅の入居を拒否しているため、公正住宅法および関連する州法に長年違反していると主張しています。原告は、これは SafeRen…

彼女はAIが生成したスコアのせいでアパートを借りられず、他の人が同じ運命を辿らないようにするために訴訟を起こした。
theguardian.com · 2024
自動翻訳済み

324。これは、AI を活用した入居審査ツールによってメアリー ルイスに与えられたスコアです。SafeRent というソフトウェアは、11 ページのレポートで、スコアの計算方法やさまざまな要素の重み付けについて説明していませんでした。スコアが実際に何を意味するのかは述べていませんでした。ルイスのスコアを表示し、低すぎると判断しただけです。結果の横のボックスには、「スコア推奨: 拒否」と書かれていました。

警備員として働くルイスは、東部 マサチューセッツ州 郊外のアパートに申し…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 レポート
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 レポート
HUD charges Facebook with enabling housing discrimination

HUD charges Facebook with enabling housing discrimination

Aug 2018 · 4 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 レポート
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 レポート
HUD charges Facebook with enabling housing discrimination

HUD charges Facebook with enabling housing discrimination

Aug 2018 · 4 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e