Registro de citas para el Incidente 215

Description: Content moderators and employees at Facebook demand better working conditions, as automated content moderation system allegedly failed to achieve sufficient performance and exposed human reviewers to psychologically hazardous content such as graphic violence and child abuse.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook content moderators.

Estadísticas de incidentes

ID
215
Cantidad de informes
1
Fecha del Incidente
2020-04-01
Editores
Khoa Lam

Informes del Incidente

Cronología de Informes

Carta abierta de moderadores de contenido sobre: pandemia
foxglove.org.uk · 2020

noviembre 2020

Mark Zuckerberg, Sheryl Sandberg, Anne Heraty (CEO, CPL/Covalen), Julie Sweet (CEO, Accenture)

Por correo electrónico y publicación en los canales de Workplace de Facebook

Carta abierta de moderadores de contenido sobre: pand…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.