Registro de citas para el Incidente 163

Description: Facebook’s hate-speech detection algorithms was found by company researchers to have under-reported less common but more harmful content that was more often experienced by minority groups such as Black, Muslim, LGBTQ, and Jewish users.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook users of minority groups y Facebook users.

Estadísticas de incidentes

ID
163
Cantidad de informes
2
Fecha del Incidente
2021-11-21
Editores
Sean McGregor, Khoa Lam
Cómo oculta Facebook lo terrible que es con el discurso de odio
wired.com · 2021

En público, Facebook parece afirmar que elimina más del 90 por ciento del discurso de odio en su plataforma, pero en comunicaciones internas privadas, la empresa dice que la cifra es solo un atroz 3 a 5 por ciento. Facebook quiere hacernos …

Las prácticas de ceguera racial de Facebook en torno al discurso de odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos
washingtonpost.com · 2021

El año pasado, los investigadores de Facebook mostraron a los ejecutivos un ejemplo del tipo de discurso de odio que circula en la red social: una publicación real con una imagen de cuatro legisladoras demócratas conocidas colectivamente co…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.