インシデントのステータス
CSETv1 分類法のクラス
分類法の詳細Incident Number
114
Special Interest Intangible Harm
yes
Notes (AI special interest intangible harm)
The ACLU's test demonstrated Rekognition's disproportionate inaccuracy on the faces of people of color.
Date of Incident Year
2018
Date of Incident Month
07
Estimated Date
No
CSETv1_Annotator-1 分類法のクラス
分類法の詳細Incident Number
114
Special Interest Intangible Harm
yes
Date of Incident Year
2018
Date of Incident Month
07
Estimated Date
No
Multiple AI Interaction
no
CSETv1_Annotator-3 分類法のクラス
分類法の詳細Incident Number
114
Special Interest Intangible Harm
no
インシデントレポート
レポ ートタイムライン
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Amazon’s face surveillance technology is the target of growing opposition nationwide, and today, there are 28 more causes for concern. In a test the ACLU recently conducted of the facial recognition tool, called “Rekognition,” the software …
バリアント
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
Policing the Future
Machine Bias - ProPublica
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents