インシデント 469の引用情報

Description: Automated content moderation tools to detect sexual explicitness or "raciness" reportedly exhibited bias against women bodies, resulting in suppression of reach despite not breaking platform policies.
推定: Microsoft , Google Amazonが開発し、Meta , LinkedIn , Instagram Facebookが提供したAIシステムで、LinkedIn users , Instagram users Facebook usersに影響を与えた

インシデントのステータス

インシデントID
469
レポート数
3
インシデント発生日
2006-02-25
エディタ
Khoa Lam
A Google Algorithm Seems To Think Brands Like Boohoo And Missguided Are Pretty ‘Racy’
graziadaily.co.uk · 2019

An investigation into the 'raciest' clothing from different fashion brands has highlighted the fact that Google uses software to rate imagery as part of a 'safe search' tool and scores clothing based on how 'skimpy or sheer' it is.

Google's…

‘There is no standard’: investigation finds AI algorithms objectify women’s bodies
theguardian.com · 2023

Images posted on social media are analyzed by artificial intelligence (AI) algorithms that decide what to amplify and what to suppress. Many of these algorithms, a Guardian investigation has found, have a gender bias, and may have been cens…

New Investigation Reveals AI Tools Are Sexualizing Women’s Bodies in Photos
thestoryexchange.org · 2023

Many social media platforms such as Instagram and LinkedIn use content moderation systems to suppress images that are sexually explicit or deemed inappropriate for viewers. 

But what happens when these systems block images that are not at a…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents