インシデント 166の引用情報

Description: A social networking platform, Giggle, allegedly collected, shared to third-parties, and used sensitive information and biometric data to verify whether a person is a woman via facial recognition, which critics claimed to be discriminatory against women of color and harmful towards trans women.
推定: Kairosが開発し、Giggleが提供したAIシステムで、trans women women of colorに影響を与えた

インシデントのステータス

インシデントID
166
レポート数
2
インシデント発生日
2020-02-07
エディタ
Sean McGregor, Khoa Lam
This girls-only app uses AI to screen a user’s gender — what could go wrong?
theverge.com · 2020

A new social app called Giggle is pitching itself as a girls-only networking platform. To sign up, users have to take a selfie. And while that might not sound too invasive, the app then uses “bio-metric gender verification software” to dete…

A social media app just for 'females' intentionally excludes trans women — and some say its face-recognition AI discriminates against women of color, too
businessinsider.com · 2022

An app marketed towards "females" has faced a barrage of online criticism for excluding transgender women with its use of artificial intelligence.

Giggle, which first launched in early 2020, according to The Verge, uses facial recognition t…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください