Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1000: Le générateur vidéo Sora aurait créé des représentations humaines biaisées en termes de race, de sexe et de handicap.

Traduit par IA
Description:
Traduit par IA
Une enquête de WIRED a révélé que Sora, le modèle de génération vidéo d'OpenAI, présentait des biais de représentation liés à l'origine ethnique, au genre, à la morphologie et au handicap. Lors de tests portant sur 250 sujets, Sora était plus susceptible de représenter les PDG et les professeurs comme des hommes, les hôtesses de l'air et les puéricultrices comme des femmes, et présentait des représentations limitées ou stéréotypées des personnes handicapées et des personnes de forte corpulence.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par OpenAI et Sora, a endommagé Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color et General public.
Système d'IA présumé impliqué: Sora

Statistiques d'incidents

ID
1000
Nombre de rapports
2
Date de l'incident
2025-03-23
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes
Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste
Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes

Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes

wired.com

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste

futurism.com

Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes
wired.com · 2025
Traduit par IA

Malgré les récentes avancées en matière de qualité d'image, les biais constatés dans les vidéos générées par des outils d'IA, comme Sora d'OpenAI, sont plus flagrants que jamais. Une enquête de WIRED, qui a notamment examiné des centaines d…

Sora d'OpenAI a un petit problème : il est extrêmement raciste et sexiste
futurism.com · 2025
Traduit par IA

Depuis que ChatGPT a révolutionné le paysage numérique, il est devenu évident que les modèles d'IA générative sont entachétés de biais. Et à mesure que les IA génératrices de vidéos progressent, ces tendances inquiétantes sont mises en évid…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 rapports
Gender Biases in Google Translate

Gender Biases in Google Translate

Apr 2017 · 10 rapports
Gender Biases of Google Image Search

Gender Biases of Google Image Search

Apr 2015 · 11 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 rapports
Gender Biases in Google Translate

Gender Biases in Google Translate

Apr 2017 · 10 rapports
Gender Biases of Google Image Search

Gender Biases of Google Image Search

Apr 2015 · 11 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178