インシデント 529の引用情報

Description: Stable Diffusion reportedly posed risks of bias and stereotyping along gender and cultural lines for prompts containing descriptors and professions.
推定: Stability AI , Runway , LAION , EleutherAI CompVis LMUが開発し、Stability AIが提供したAIシステムで、racial minority groups , Women gender minority groupsに影響を与えた

インシデントのステータス

インシデントID
529
レポート数
3
インシデント発生日
2022-08-22
エディタ
Khoa Lam

インシデントレポート

AI Image Generators Routinely Display Gender and Cultural Bias
gizmodo.com.au · 2022

This image was created with Stable Diffusion and listed on Shutterstock. While the AI is capable of drawing abstract images, it has inherent biases in the way it displays actual human faces based on users' prompts. (Image: Fernando_Garcia, …

Humans Are Biased. Generative AI Is Even Worse
bloomberg.com · 2023

The world according to Stable Diffusion is run by White male CEOs. Women are rarely doctors, lawyers or judges. Men with dark skin commit crimes, while women with dark skin flip burgers.

Stable Diffusion generates images using artificial in…

Tweet: @Leonardonclt
twitter.com · 2023

🚨 Generative AI has a serious problem with bias 🚨 Over months of reporting, @dinabass and I looked at thousands of images from @StableDiffusion and found that text-to-image AI takes gender and racial stereotypes to extremes worse than in …

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください