Registro de citas para el Incidente 367

Description: Unsupervised image generation models trained using Internet images such as iGPT and SimCLR were shown to have embedded racial, gender, and intersectional biases, resulting in stereotypical depictions.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por OpenAI y Google, perjudicó a gender minority groups , racial minority groups y underrepresented groups in training data.

Estadísticas de incidentes

ID
367
Cantidad de informes
1
Fecha del Incidente
2020-06-17
Editores
Khoa Lam

Informes del Incidente

Una IA vio una foto recortada de AOC. La autocompletaba usando un bikini.
technologyreview.com · 2021

Ryan Steed, estudiante de doctorado en la Universidad Carnegie Mellon, y Aylin Caliskan, profesora asistente en la Universidad George Washington, analizaron dos algoritmos: [iGPT de OpenAI](https://www.technologyreview.com/2020/07/16/100528…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents