インシデント 367の引用情報

Description: Unsupervised image generation models trained using Internet images such as iGPT and SimCLR were shown to have embedded racial, gender, and intersectional biases, resulting in stereotypical depictions.
推定: OpenAI Googleが開発し提供したAIシステムで、gender minority groups , racial minority groups underrepresented groups in training dataに影響を与えた

インシデントのステータス

インシデントID
367
レポート数
1
インシデント発生日
2020-06-17
エディタ
Khoa Lam

インシデントレポート

レポートタイムライン

An AI saw a cropped photo of AOC. It autocompleted her wearing a bikini.
technologyreview.com · 2021

Ryan Steed, a PhD student at Carnegie Mellon University, and Aylin Caliskan, an assistant professor at George Washington University, looked at two algorithms: OpenAI’s iGPT (a version of GPT-2 that is trained on pixels instead of words) and…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents