Description: A WIRED investigation found that OpenAI’s video generation model, Sora, exhibits representational bias across race, gender, body type, and disability. In tests using 250 prompts, Sora was more likely to depict CEOs and professors as men, flight attendants and childcare workers as women, and showed limited or stereotypical portrayals of disabled individuals and people with larger bodies.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI y Sora, perjudicó a Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color y General public.
Sistema de IA presuntamente implicado: Sora
Estadísticas de incidentes
ID
1000
Cantidad de informes
1
Fecha del Incidente
2025-03-23
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

A pesar de los recientes avances en la calidad de imagen, los sesgos detectados en los vídeos generados por herramientas de IA, como Sora de OpenAI, son más evidentes que nunca. Una investigación de WIRED, que incluyó la revisión de cientos…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents