Incidentes Asociados

Los ingenieros de Facebook descubrieron tardíamente una falla significativa en su sistema de clasificación descendente para filtrar contenido dañino, que expuso hasta la mitad de todas las vistas de News Feed a posibles "riesgos de integridad" durante seis meses.
Los informes en The Verge sugieren que la "falla de clasificación masiva" se identificó por primera vez en octubre pasado cuando los ingenieros lucharon contra una ola de información errónea que amenazaba con inundar el News Feed. Investigaciones más cercanas revelaron que un sistema de clasificación diseñado para suprimir la información errónea de las cuentas marcadas, según lo identificado por un equipo de verificadores de datos externos, estaba mostrando estas publicaciones al público.
La correspondencia filtrada sugiere que el error impulsó las vistas de publicaciones maliciosas hasta en un 30% de manera intermitente hasta que el problema finalmente se resolvió el 11 de marzo.
A lo largo de este período de seis meses, los muy cacareados algoritmos policiales de Facebook no lograron subestimar adecuadamente la desnudez, la violencia y la propaganda del estado ruso, un período que coincidió con la invasión de Ucrania por parte del país.
Respondiendo a las consultas de The Verge, el portavoz de Meta, Joe Osborne, describió cinco casos separados de "inconsistencias en la clasificación descendente" atribuidas a un "error de software" durante el cual se le dio mayor visibilidad al material inapropiado.
Sin embargo, Osborne insiste en que el episodio "no ha tenido ningún impacto significativo a largo plazo en nuestras métricas", y enfatiza que el contenido que superó el umbral de eliminación no se vio afectado.
Facebook ha promocionado el sistema de reducción de rango como evidencia de que la autorregulación es efectiva, evitando los llamados a una nueva legislación para frenar la difusión de contenido "sensacionalista y provocativo" que generalmente atrae la mayor atención.
Hasta ahora, Facebook se ha jactado del éxito que han tenido sus algoritmos en la identificación de contenido "límite" que bordea los límites de la aceptabilidad en áreas como el discurso de odio, marcando presuntas infracciones para su revisión manual.
Un informe reciente encontró que el discurso de odio estaba presente en seis de cada 10,000 vistas de Facebook.