Description: An AI application modified an MIT student's photo to appear 'professional' by lightening her skin and changing her eye color to blue, highlighting the racial bias in the training data of the program.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Playground AI, perjudicó a Rona Wang y Racial minorities who may have experienced the same result.
Estadísticas de incidentes
ID
593
Cantidad de informes
1
Fecha del Incidente
2023-07-21
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
boston.com · 2023
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Rona Wang no es ajena al uso de la inteligencia artificial.
Wang, de 24 años, recién graduado del MIT, ha estado experimentando con la variedad de nuevos lenguajes de inteligencia artificial y herramientas de imágenes que han surgido en los…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 28 informes
Tempe police release report, audio, photo
· 25 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 28 informes
Tempe police release report, audio, photo
· 25 informes