インシデント 167の引用情報

Description: Researchers at Stanford Graduate School of Business developed a model that determined, on a binary scale, whether someone was homosexual using only his facial image, which advocacy groups such as GLAAD and the Human Rights Campaign denounced as flawed science and threatening to LGBTQ folks.
推定: Michal Kosinski Yilun Wangが開発し提供したAIシステムで、LGBTQ people , LGBTQ people of color non-American LGBTQ peopleに影響を与えた

インシデントのステータス

インシデントID
167
レポート数
1
インシデント発生日
2017-09-07
エディタ
Sean McGregor, Khoa Lam

GMF 分類法のクラス

分類法の詳細

Known AI Goal

Behavioral Modeling

Known AI Technology

Neural Network

Potential AI Technology

Siamese Network, Convolutional Neural Network, Diverse Data

Known AI Technical Failure

Limited Dataset, Dataset Imbalance, Generalization Failure

Potential AI Technical Failure

Incomplete Data Attribute Capture, Overfitting, Lack of Explainability

インシデントレポート

レポートタイムライン

Why Stanford Researchers Tried to Create a ‘Gaydar’ Machine
nytimes.com · 2017

Michal Kosinski felt he had good reason to teach a machine to detect sexual orientation.

An Israeli start-up had started hawking a service that predicted terrorist proclivities based on facial analysis. Chinese companies were developing fac…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください