Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 1000: Sora Video Generator Has Reportedly Been Creating Biased Human Representations Across Race, Gender, and Disability

Description: A WIRED investigation found that OpenAI’s video generation model, Sora, exhibits representational bias across race, gender, body type, and disability. In tests using 250 prompts, Sora was more likely to depict CEOs and professors as men, flight attendants and childcare workers as women, and showed limited or stereotypical portrayals of disabled individuals and people with larger bodies.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par OpenAI et Sora, a endommagé Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color et General public.
Système d'IA présumé impliqué: Sora

Statistiques d'incidents

ID
1000
Nombre de rapports
2
Date de l'incident
2025-03-23
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes
Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste
Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes

Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes

wired.com

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste

futurism.com

Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes
wired.com · 2025
Traduit par IA

Malgré les récentes avancées en matière de qualité d'image, les biais constatés dans les vidéos générées par des outils d'IA, comme Sora d'OpenAI, sont plus flagrants que jamais. Une enquête de WIRED, qui a notamment examiné des centaines d…

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste
futurism.com · 2025
Traduit par IA

Depuis que ChatGPT a révolutionné le paysage numérique, il est devenu évident que les modèles d'IA générative sont entachétés de biais. Et à mesure que les IA génératrices de vidéos progressent, ces tendances inquiétantes sont mises en évid…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 rapports
Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 rapports
Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 rapports
Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e