Description: Researchers at Stanford Graduate School of Business developed a model that determined, on a binary scale, whether someone was homosexual using only his facial image, which advocacy groups such as GLAAD and the Human Rights Campaign denounced as flawed science and threatening to LGBTQ folks.
Alleged: Michal Kosinski と Yilun Wang developed and deployed an AI system, which harmed LGBTQ people , LGBTQ people of color と non-American LGBTQ people.
インシデントのステータス
GMF 分類法のクラス
分類法の詳細Known AI Goal Snippets
One or more snippets that justify the classification.
(Snippet Text: Presented with photos of gay men and straight men, a computer program was able to determine which of the two was gay with 81 percent accuracy, according to Dr. Kosinski and co-author Yilun Wang’s paper., Related Classifications: Behavioral Modeling, Snippet Discussion: Pairwise classification)
インシデントレポート
レポートタイムライン
nytimes.com · 2017
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Michal Kosinski felt he had good reason to teach a machine to detect sexual orientation.
An Israeli start-up had started hawking a service that predicted terrorist proclivities based on facial analysis. Chinese companies were developing fac…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポ ートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents