インシデント 367の引用情報
Description: Unsupervised image generation models trained using Internet images such as iGPT and SimCLR were shown to have embedded racial, gender, and intersectional biases, resulting in stereotypical depictions.
推定: OpenAI と Googleが開発し提供したAIシステムで、gender minority groups , racial minority groups と underrepresented groups in training dataに影響を与えた
インシデントのステータス
インシデントID
367
レポート数
1
インシデント発生日
2020-06-17
エディタ
Khoa Lam
インシデントレポート
レポートタイムライン
technologyreview.com · 2021
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Ryan Steed, a PhD student at Carnegie Mellon University, and Aylin Caliskan, an assistant professor at George Washington University, looked at two algorithms: OpenAI’s iGPT (a version of GPT-2 that is trained on pixels instead of words) and…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリ アントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください