Description: Department of Justice’s inmate-recidivism risk assessment tool was reported to have produced racially uneven results, misclassifying risk levels for inmates of color.
Alleged: US Department of Justice developed and deployed an AI system, which harmed inmates of color.
インシデントのステータス
インシデントID
154
レポート数
1
インシデント発生日
2022-01-26
エディタ
Sean McGregor, Khoa Lam
Applied Taxonomies
CSETv1 分類法のクラス
分類法の詳細Incident Number
The number of the incident in the AI Incident Database.
154
CSETv1_Annotator-1 分類法のクラス
分類法の詳細Incident Number
The number of the incident in the AI Incident Database.
154
GMF 分類法のクラス
分類法の詳細Known AI Goal Snippets
One or more snippets that justify the classification.
(Snippet Text: In a report issued days before Christmas in 2021, the department said its algorithmic tool for assessing the risk that a person in prison would return to crime produced uneven results. , Related Classifications: Recidivism Prediction)
インシデントレポート
レポートタイムライン
npr.org · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Thousands of people are leaving federal prison this month thanks to a law called the First Step Act, which allowed them to win early release by participating in programs aimed at easing their return to society.
But thousands of others may s…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照し てください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents