Description: Stable Diffusion reportedly posed risks of bias and stereotyping along gender and cultural lines for prompts containing descriptors and professions.
Alleged: Stability AI , Runway , LAION , EleutherAI と CompVis LMU developed an AI system deployed by Stability AI, which harmed racial minority groups , Women と gender minority groups.
インシデントのステータス
インシデントレポート
レポートタイムライン
gizmodo.com.au · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
This image was created with Stable Diffusion and listed on Shutterstock. While the AI is capable of drawing abstract images, it has inherent biases in the way it displays actual human faces based on users' prompts. (Image: Fernando_Garcia, …
bloomberg.com · 2023
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
The world according to Stable Diffusion is run by White male CEOs. Women are rarely doctors, lawyers or judges. Men with dark skin commit crimes, while women with dark skin flip burgers.
Stable Diffusion generates images using artificial in…
twitter.com · 2023
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
🚨 Generative AI has a serious problem with bias 🚨 Over months of reporting, @dinabass and I looked at thousands of images from @StableDiffusion and found that text-to-image AI takes gender and racial stereotypes to extremes worse than in …
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください