Incidents associés
- ** Facebook s'est excusé d'avoir supprimé un message contenant des extraits de la déclaration d'indépendance, affirmant qu'il avait été signalé à tort comme un discours de haine. **
- En plus de s'excuser, Facebook a restauré la publication.
- Ce n'est que le dernier exemple très médiatisé de l'erreur de l'algorithme de discours de haine de Facebook.
Dans un autre cas viral de Facebook luttant contre les discours de haine sur sa plate-forme, des parties de la déclaration d'indépendance publiée par un journal du Texas ont été supprimées plus tôt cette semaine après que le géant des médias sociaux a signalé les extraits comme des discours de haine.
La publication a depuis été restaurée et Facebook a présenté ses excuses.
The Vindicator, un petit journal communautaire du comté de Liberty, au Texas, a commencé à publier des extraits de la déclaration d'indépendance plus tôt cette semaine avant le 4 juillet. Alors que le journal a pu publier la majorité de la déclaration d'indépendance sans aucun problème, un message contenait l'expression "sauvages indiens", qui, hors contexte, semblerait violer les normes communautaires de Facebook.
Voici la phrase entière :
"Il a excité des insurrections domestiques parmi nous et s'est efforcé d'amener les habitants de nos frontières, les sauvages indiens impitoyables, dont la règle de guerre connue est une destruction sans distinction de tous les âges, sexes et conditions."
Les systèmes automatisés de Facebook auraient pu détecter l'utilisation de "sauvages indiens" et déclencher la suppression de la publication par la plate-forme, a déclaré la société. Mais après que les éditeurs de The Vindicator ont publié une histoire à ce sujet le 3 juillet et en ont informé Facebook, la société a restauré la publication et s'est excusé.
"Le message a été supprimé par erreur et restauré dès que nous l'avons examiné. Nous traitons des millions de rapports chaque semaine, et parfois nous nous trompons", a déclaré un porte-parole de Facebook à Business Insider.
Ce n'est que le dernier exemple très médiatisé d'un cas d'erreur de l'algorithme de discours de haine de Facebook. Facebook utilise une combinaison d'humains et d'automatisation pour examiner les publications, et même si l'entreprise a déclaré être au courant de les problèmes complexes entourant le discours de haine – comme l'intention et le contexte – parfois des erreurs sont commises.
Facebook a déclaré qu'il prévoyait d'embaucher des milliers de critiques humains supplémentaires, mais cet incident montre comment le géant des médias sociaux travaille toujours sur la meilleure façon de supprimer les discours de haine sans censurer l'expression légitime.