インシデント 115の引用情報

Description: A company's AI predicting a person's gender based on their name, email address, or username was reported by its users to show biased and inaccurate results.
推定: Genderifyが開発し提供したAIシステムで、Genderify customers gender minority groupsに影響を与えた

インシデントのステータス

インシデントID
115
レポート数
3
インシデント発生日
2020-07-28
エディタ
Sean McGregor, Khoa Lam
Service that uses AI to identify gender based on names looks incredibly biased
theverge.com · 2020

Some tech companies make a splash when they launch, others seem to bellyflop.

Genderify, a new service that promised to identify someone’s gender by analyzing their name, email address, or username with the help AI, looks firmly to be in th…

AI-Powered ‘Genderify’ Platform Shut Down After Bias-Based Backlash
syncedreview.com · 2020

Just hours after making waves and triggering a backlash on social media, Genderify — an AI-powered tool designed to identify a person’s gender by analyzing their name, username or email address — has been completely shut down.

Launched last…

Someone made an AI that predicted gender from email addresses, usernames. It went about as well as expected
theregister.com · 2020

The creators of a controversial tool that attempted to use AI to predict people's gender from their internet handle or email address have shut down their service after a huge backlash.

The Genderify app launched this month, and invited peop…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents