Description: A WIRED investigation found that OpenAI’s video generation model, Sora, exhibits representational bias across race, gender, body type, and disability. In tests using 250 prompts, Sora was more likely to depict CEOs and professors as men, flight attendants and childcare workers as women, and showed limited or stereotypical portrayals of disabled individuals and people with larger bodies.
推定: OpenAI と Soraが開発し提供したAIシステムで、Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color と General publicに影響を与えた
関与が疑われるAIシステム: Sora
インシデントのステータス
インシデントID
1000
レポート数
1
インシデント発生日
2025-03-23
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン

近年、画質が飛躍的に向上しているにもかかわらず、OpenAI の Sora などの AI ツールで生成された動画に見られる偏見は、相変わらず目立っています。AI で生成された数百本の動画をレビューした WIRED の調査では、Sora のモデルが性差別、人種差別、障害者差別のステレオタイプを結果に反映していることが判明しました。
Sora の世界では、誰もがハンサムです。パイロット、CEO、大学教授は男性ですが、客室乗務員、受付係、保育士は女性です。障害者は車椅子ユーザーで、…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents