Incidents associés

Les ingénieurs de Facebook ont découvert tardivement une faille importante dans son système de déclassement pour filtrer les contenus préjudiciables, qui a exposé jusqu'à la moitié de toutes les vues du fil d'actualité à des "risques d'intégrité" potentiels pendant six mois.
Les rapports de The Verge suggèrent que "l'échec massif du classement" a été identifié pour la première fois en octobre dernier lorsque les ingénieurs se sont battus contre une vague de désinformation qui menaçait d'inonder le fil d'actualité. Des enquêtes plus approfondies ont révélé qu'un système de classement conçu pour supprimer la désinformation des comptes signalés, identifié par une équipe de vérificateurs de faits externes, faisait plutôt apparaître ces messages au public.
Une fuite de correspondance suggère que le bogue a augmenté le nombre de vues des messages malveillants jusqu'à 30 % par intermittence jusqu'à ce que le problème soit finalement résolu le 11 mars.
Tout au long de cette période de six mois, les algorithmes de police tant vantés de Facebook n’ont pas correctement déclassé la nudité, la violence et la propagande de l’État russe – une période qui a coïncidé avec l’invasion de l’Ukraine par le pays.
Répondant aux demandes de The Verge, le porte-parole de Meta, Joe Osborne, a décrit cinq cas distincts d '«incohérences dans le déclassement» attribués à un «bogue logiciel» au cours duquel du matériel inapproprié a reçu une visibilité accrue.
Osborne insiste cependant sur le fait que l'épisode "n'a eu aucun impact significatif à long terme sur nos mesures", soulignant que le contenu qui a dépassé le seuil de suppression n'a pas été affecté.
Le système de déclassement a été présenté par Facebook comme la preuve que l'autorégulation est efficace, évitant ainsi les appels à une nouvelle législation pour freiner la propagation des contenus "sensationnalistes et provocateurs" qui attirent généralement le plus l'attention.
Jusqu'à présent, Facebook s'est vanté du succès de ses algorithmes en identifiant le contenu "limite" qui contourne les limites de l'acceptabilité dans des domaines tels que le discours de haine, en signalant les infractions présumées pour un examen manuel.
Un rapport récent a révélé que le discours de haine était présent dans six vues sur 10 000 sur Facebook.