Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 1000: Sora Video Generator Has Reportedly Been Creating Biased Human Representations Across Race, Gender, and Disability

概要: A WIRED investigation found that OpenAI’s video generation model, Sora, exhibits representational bias across race, gender, body type, and disability. In tests using 250 prompts, Sora was more likely to depict CEOs and professors as men, flight attendants and childcare workers as women, and showed limited or stereotypical portrayals of disabled individuals and people with larger bodies.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: OpenAI と Soraが開発し提供したAIシステムで、Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color と General publicに影響を与えた
関与が疑われるAIシステム: Sora

インシデントのステータス

インシデントID
1000
レポート数
2
インシデント発生日
2025-03-23
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
OpenAI の Sora は性差別、人種差別、障害者差別の偏見に悩まされている
OpenAIのSoraは、極度の人種差別と性差別主義であるという小さな問題を抱えている
OpenAI の Sora は性差別、人種差別、障害者差別の偏見に悩まされている

OpenAI の Sora は性差別、人種差別、障害者差別の偏見に悩まされている

wired.com

OpenAIのSoraは、極度の人種差別と性差別主義であるという小さな問題を抱えている

OpenAIのSoraは、極度の人種差別と性差別主義であるという小さな問題を抱えている

futurism.com

OpenAI の Sora は性差別、人種差別、障害者差別の偏見に悩まされている
wired.com · 2025
自動翻訳済み

近年、画質が飛躍的に向上しているにもかかわらず、OpenAI の Sora などの AI ツールで生成された動画に見られる偏見は、相変わらず目立っています。AI で生成された数百本の動画をレビューした WIRED の調査では、Sora のモデルが性差別、人種差別、障害者差別のステレオタイプを結果に反映していることが判明しました。

Sora の世界では、誰もがハンサムです。パイロット、CEO、大学教授は男性ですが、客室乗務員、受付係、保育士は女性です。障害者は車椅子ユーザーで、…

OpenAIのSoraは、極度の人種差別と性差別主義であるという小さな問題を抱えている
futurism.com · 2025
自動翻訳済み

ChatGPT がデジタル環境を変えて以来、生成 AI モデルが 偏見に悩まされている ことは明らかです。そして、ビデオ生成 AI がさらに進歩するにつれて、これらの憂慮すべきパターンがさらに鮮明になってきています。テキスト応答でそれらを見るのと、目の前に描かれる のを見るのとでは、まったく違います。

そのようなモデルの 1 つである OpenAI の Sora の調査で、Wired は、この AI ツールが人種差別、性差別、障害者差別のステレオタイプを頻繁に広め、特定のグル…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 レポート
Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 レポート
Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e