Incidente 1000: Según se informa, el generador de videos Sora ha estado creando representaciones humanas sesgadas en cuanto a raza, género y discapacidad.
Descripción: Una investigación de WIRED reveló que Sora, el modelo de generación de video de OpenAI, presenta sesgos de representación según la raza, el género, la complexión y la discapacidad. En pruebas con 250 indicaciones, Sora mostró mayor probabilidad de representar a directores ejecutivos y profesores como hombres, a auxiliares de vuelo y cuidadores de niños como mujeres, y mostró representaciones limitadas o estereotipadas de personas con discapacidad y personas de complexión corpulenta.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI y Sora, perjudicó a Marginalized groups , Women , people with disabilities , People with larger bodies , LGBTQ+ people , People of color y General public.
Sistema de IA presuntamente implicado: Sora
Estadísticas de incidentes
ID
1000
Cantidad de informes
2
Fecha del Incidente
2025-03-23
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

A pesar de los recientes avances en la calidad de imagen, los sesgos detectados en los vídeos generados por herramientas de IA, como Sora de OpenAI, son más evidentes que nunca. Una investigación de WIRED, que incluyó la revisión de cientos…

Desde que ChatGPT transformó el panorama digital, es evidente que los modelos de IA generativa están plagados de sesgos (https://futurism.com/gpt-4-deeply-racist-before-openai-muzzled-it). Y a medida que las IA generadoras de vídeo avanzan,…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop
· 6 informes
Gender Biases in Google Translate
· 10 informes

Gender Biases of Google Image Search
· 11 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop
· 6 informes
Gender Biases in Google Translate
· 10 informes

Gender Biases of Google Image Search
· 11 informes