Description: A Black man was wrongfully detained by the Detroit Police Department as a result of a false facial recognition (FRT) result.
Alleged: DataWorks Plus developed an AI system deployed by Detroit Police Department, which harmed Michael Oliver と Black people in Detroit.
インシデントのステータス
インシデントID
439
レポート数
3
インシデント発生日
2019-07-31
エディタ
Kate Perkins
インシデントレポート
レポートタイムライン
freep.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
The high-profile case of a Black man wrongly arrested earlier this year wasn’t the first misidentification linked to controversial facial recognition technology used by Detroit Police, the Free Press has learned.
Last year, a 25-year-old D…
vice.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Detroit police wrongfully arrested another Black man based on flawed facial recognition technology that often yields errors in identifying people of color, according to a new lawsuit obtained by Motherboard.
Michael Oliver, 26, was arrested…
cbsnews.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
In July of 2019, Michael Oliver, 26, was on his way to work in Ferndale, Michigan, when a cop car pulled him over. The officer informed him that there was a felony warrant out for his arrest.
"I thought he was joking because he was laughin…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有 し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください