Registro de citas para el Incidente 393

Description: Facebook's ad moderation system involving algorithms failed to flag hateful language and violating content such as calls for killings for ads in English and Swahili.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook users speaking Swahili , Facebook users speaking English y Facebook users.

Estadísticas de incidentes

ID
393
Cantidad de informes
1
Fecha del Incidente
2021-12-08
Editores
Khoa Lam

Informes del Incidente

En una tercera prueba, Facebook sigue sin bloquear el discurso de odio
apnews.com · 2022

Facebook está permitiendo que el discurso de odio violento se escape de sus controles en Kenia como lo ha hecho en otros países, según un nuevo informe de los grupos sin fines de lucro Global Witness y Foxglove.

Es la tercera prueba de este…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents