概要: WIREDの調査によると、OpenAIの動画生成モデル「Sora」は、人種、性別、体型、障害に関して、表現バイアスを示していることが判明しました。250種類のプロンプトを用いたテストでは、SoraはCEOや教授を男性として、客室乗務員や保育士を女性として描写する傾向が強く、障害者や体格の大きい人については限定的、あるいはステレオタイプ的な描写を示しました。
推定: OpenAI と Soraが開発し提供したAIシステムで、Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color と General publicに影響を与えた
関与が疑われるAIシステム: Sora
インシデントのステータス
インシデントID
1000
レポート数
2
インシデント発生日
2025-03-23
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン

近年、画質が飛躍的に向上しているにもかかわらず、OpenAI の Sora などの AI ツールで生成された動画に見られる偏見は、相変わらず目立っています。AI で生成された数百本の動画をレビューした WIRED の調査では、Sora のモデルが性差別、人種差別、障害者差別のステレオタイプを結果に反映していることが判明しました。
Sora の世界では、誰もがハンサムです。パイロット、CEO、大学教授は男性ですが、客室乗務員、受付係、保育士は女性です。障害者は車椅子ユーザーで、…

ChatGPT がデジタル環境を変えて以来、生成 AI モデルが 偏見に悩まされている ことは明らかです。そして、ビデオ生成 AI がさらに進歩するにつれて、これらの憂慮すべきパターンがさらに鮮明になってきています。テキスト応答でそれらを見るのと、目の前に描かれる のを見るのとでは、まったく違います。
そのようなモデルの 1 つである OpenAI の Sora の調査で、Wired は、この AI ツールが人種差別、性差別、障害者差別のステレオタイプを頻繁に広め、特定のグル…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的 システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシ デント
Did our AI mess up? Flag the unrelated incidents
Gender Biases in Google Translate
· 10 レポート

Gender Biases of Google Image Search
· 11 レポート
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
Gender Biases in Google Translate
· 10 レポート

Gender Biases of Google Image Search
· 11 レポート