Incidentes Asociados

Durante los últimos seis meses, los ingenieros de Facebook han estado viendo picos intermitentes de información errónea y otro contenido dañino en News Feed, con publicaciones que normalmente serían degradadas por los algoritmos de la compañía y que en su lugar aumentaron hasta en un 30%. La causa, según informa The Verge, fue un error que un informe interno describió como una "falla masiva de clasificación".
El error se originó por primera vez en 2019, pero su impacto se notó por primera vez en octubre de 2021. La compañía dijo que se resolvió el 11 de marzo. "Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias", dijo el portavoz de Meta, Joe Osborne, a The Verge.
El error hizo que las publicaciones que habían sido marcadas por los verificadores de hechos, así como la desnudez, la violencia y los medios estatales rusos, pasaran por los filtros habituales de clasificación inferior de la compañía, según un informe interno obtenido por The Verge.
Meta y otros gigantes tecnológicos se han apoyado en la clasificación descendente como un enfoque más aceptable para la moderación de contenido que eliminar el contenido por completo. Académicos como Renée DiResta de Stanford también han pedido a los gigantes tecnológicos que adopten este enfoque y se den cuenta de que "la libertad de expresión no es lo mismo que el libre alcance".
En este caso, esos sistemas de clasificación parecen haber fallado. Pero Osborne le dijo a The Verge que el error "no ha tenido ningún impacto significativo a largo plazo en nuestras métricas".
Será difícil para aquellos fuera de Meta examinar esas métricas. Meta bloqueó el acceso de nuevos usuarios a CrowdTangle, una de las herramientas principales que los investigadores y periodistas han utilizado para rastrear las tendencias en lo que es popular en Facebook, y ha desmantelado al equipo que lo dirige. Y aunque la empresa publica informes sobre la prevalencia de ciertos tipos de infracciones de políticas en un trimestre determinado, esos informes ofrecen pocos indicios de lo que hay detrás de esos números. Incluso si el informe mostrara un aumento en, digamos, la violencia en Facebook, sería imposible saber si eso se debe a este error o a la invasión de Ucrania por parte de Rusia o alguna otra atrocidad global.
La compañía en un comunicado a Protocol dijo:
"The Verge exageró enormemente lo que era este error porque, en última instancia, no tuvo un impacto significativo a largo plazo en el contenido problemático. Solo una cantidad muy pequeña de vistas de contenido en Feed se vio afectada porque la gran mayoría de las publicaciones en Feed no son elegibles para ser clasificado en primer lugar. Después de detectar inconsistencias, encontramos la causa raíz y aplicamos correcciones rápidamente. Incluso sin las correcciones, la multitud de otros mecanismos que tenemos para evitar que las personas vean contenido dañino, incluidas otras degradaciones, etiquetas de verificación de hechos y violar las eliminaciones de contenido, permanecieron en su lugar”.
Pero aún no está claro qué publicaciones se impulsaron debido al error o cuántas visitas recibieron.