Incidents associés

Au cours des six derniers mois, les ingénieurs de Facebook ont constaté des pics intermittents de désinformation et d'autres contenus nuisibles sur le fil d'actualité, les publications qui seraient généralement rétrogradées par les algorithmes de l'entreprise étant augmentées jusqu'à 30 %. La cause, selon les rapports de The Verge, était un bogue qu'un rapport interne a décrit comme un "échec massif de classement".
Le bogue est apparu pour la première fois en 2019, mais son impact a été remarqué pour la première fois en octobre 2021. La société a déclaré qu'il avait été résolu le 11 mars. "Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires", a déclaré le porte-parole de Meta, Joe Osborne.
Selon un rapport interne obtenu par The Verge, le bogue a fait passer les messages signalés par les vérificateurs de faits, ainsi que la nudité, la violence et les médias d'État russes, à travers les filtres de classement habituels de l'entreprise.
Meta et d'autres géants de la technologie se sont appuyés sur le déclassement comme approche plus acceptable de la modération du contenu que sur la suppression totale du contenu. Des universitaires comme Renée DiResta de Stanford ont également appelé les géants de la technologie à adopter cette approche et à réaliser que "la liberté d'expression n'est pas la même chose que la libre portée".
Dans ce cas, ces systèmes de classement semblent avoir échoué. Mais Osborne a déclaré à The Verge que le bogue "n'a eu aucun impact significatif à long terme sur nos mesures".
Il sera difficile pour ceux qui ne font pas partie de Meta de vérifier ces mesures. Meta a bloqué l'accès de nouveaux utilisateurs à CrowdTangle, l'un des principaux outils utilisés par les chercheurs et les journalistes pour suivre les tendances de ce qui est populaire sur Facebook, et a démantelé l'équipe qui le dirigeait. Et bien que la société publie des rapports sur la prévalence de certains types de violations des politiques au cours d'un trimestre donné, ces rapports offrent peu d'indications sur ce qui se cache derrière ces chiffres. Même si le rapport montrait une augmentation, disons, de la violence sur Facebook, il serait impossible de savoir si cela est dû à ce bug ou à l'invasion de l'Ukraine par la Russie ou à une autre atrocité mondiale.
La société dans une déclaration à Protocol a déclaré:
"The Verge a largement surestimé ce qu'était ce bogue parce qu'en fin de compte, il n'avait aucun impact significatif à long terme sur le contenu problématique. Seul un très petit nombre de vues de contenu dans Feed ont été affectées car l'écrasante majorité des publications dans Feed ne sont pas éligibles pour être déclassé en premier lieu. Après avoir détecté des incohérences, nous avons trouvé la cause profonde et appliqué rapidement des correctifs. Même sans les correctifs, la multitude d'autres mécanismes dont nous disposons pour empêcher les gens de voir du contenu préjudiciable - y compris d'autres rétrogradations, des étiquettes de vérification des faits et violant les suppressions de contenu – sont restés en place.
Mais on ne sait toujours pas quels messages ont été boostés en raison du bogue ou combien de vues ils ont reçues.