Incidents associés

En public, Facebook semble affirmer qu'il supprime plus de 90% des discours de haine sur sa plate-forme, mais dans les communications internes privées, l'entreprise affirme que le chiffre n'est que de 3 à 5%. Facebook veut nous faire croire que presque tous les discours de haine sont supprimés, alors qu'en réalité presque tous restent sur la plateforme.
Cette hypocrisie obscène a été révélée au milieu des nombreuses plaintes, basées sur des milliers de pages de documents internes divulgués, que Frances Haugen, employée de Facebook devenue dénonciatrice, et son équipe juridique ont déposées auprès de la SEC au début du mois. Alors que l'attention du public sur ces fuites s'est concentrée sur l'impact d'Instagram sur la santé des adolescents (qui n'est pas le pistolet fumant dont il a été vanté) et sur le rôle de l'algorithme du fil d'actualité dans l'amplification de la désinformation (à peine une révélation), l'échec total de Facebook à limiter les discours de haine et la simple astuce trompeuse sur laquelle on s'appuie constamment pour cacher cet échec est choquante. Cela montre à quel point Facebook s'appuie sur l'IA pour la modération du contenu, à quel point cette IA est inefficace et la nécessité de forcer Facebook à se mettre au clair.
Lors d'un témoignage devant le Sénat américain en octobre 2020, Mark Zuckerberg a souligné les rapports de transparence de l'entreprise, qui, selon lui, montrent que "nous identifions de manière proactive, je pense que c'est environ 94% des discours de haine que nous avons fini par éliminer". Lors d'un témoignage devant la Chambre quelques mois plus tard, Zuckerberg a également répondu aux questions sur le discours de haine en citant un rapport de transparence : de manière proactive. Dans presque tous les rapports de transparence trimestriels, Facebook proclame des pourcentages de modération des discours de haine dans les années 80 et 90 comme celles-ci. Pourtant, un document divulgué de mars 2021 dit : « Nous pouvons agir aussi peu que 3 à 5 % de haine… sur Facebook.
Facebook a-t-il vraiment été pris dans un mensonge flagrant ? Oui et non. Techniquement, les deux chiffres sont corrects - ils mesurent simplement des choses différentes. La mesure qui compte vraiment est celle que Facebook a cachée. La mesure que Facebook a rendue publique n'est pas pertinente. C'est un peu comme si chaque fois qu'un policier vous arrêtait et vous demandait à quelle vitesse vous alliez, vous répondiez toujours en ignorant la question et vous vantiez à la place la consommation d'essence de votre voiture.
Le discours de haine peut être signalé de deux manières pour examen et suppression éventuelle. Les utilisateurs peuvent le signaler manuellement ou les algorithmes d'IA peuvent essayer de le détecter automatiquement. La détection algorithmique est importante non seulement parce qu'elle est plus efficace, mais aussi parce qu'elle peut être effectuée de manière proactive, avant que les utilisateurs ne signalent le discours de haine.
C'est un peu comme si chaque fois qu'un policier vous arrêtait et vous demandait à quelle vitesse vous alliez, vous répondiez toujours en ignorant la question et vous vantiez à la place la consommation d'essence de votre voiture.
Le nombre de 94% que Facebook a publiquement vanté est le «taux proactif», le nombre d'éléments de discours de haine supprimés que l'IA de Facebook a détectés de manière proactive, divisé par le nombre total d'éléments de discours de haine supprimés. Facebook veut probablement que vous pensiez que ce chiffre indique la quantité de discours de haine supprimés avant qu'il n'ait l'occasion de causer du tort, mais tout ce qu'il mesure vraiment, c'est l'importance du rôle que jouent les algorithmes dans la détection des discours de haine sur la plate-forme.
Ce qui compte pour la société, c'est la quantité de discours de haine qui n'est pas retiré de la plate-forme. La meilleure façon de saisir cela est le nombre de suppressions de discours de haine divisé par le nombre total d'instances de discours de haine. Ce « taux de retrait » mesure la quantité de discours de haine sur Facebook qui est réellement supprimée, et c'est le nombre que Facebook a essayé de garder secret.
Grâce à Haugen, nous connaissons enfin le taux de retrait, et c'est lamentable. Selon des documents internes, plus de 95 % des discours de haine partagés sur Facebook restent sur Facebook. Zuckerberg s'est vanté auprès du Congrès que Facebook avait supprimé 12 millions de discours de haine dans les groupes, mais sur la base de l'estimation divulguée, nous savons maintenant qu'environ 250 millions de discours de haine ont probablement été laissés de côté. C'est stupéfiant, et cela montre à quel point peu de progrès ont été réalisés depuis les premiers jours des forums Internet non réglementés, malgré les investissements importants que Facebook a faits dans la modération du contenu de l'IA au fil des ans.
Malheureusement, la plainte que l'équipe juridique de Haugen a déposée auprès de la SEC a brouillé la question en affirmant bien en évidence en gras : "Les dossiers de Facebook confirment que les déclarations de Facebook étaient fausses". C'est faux en soi : Facebook n'a techniquement pas menti ou "déformé" la vérité, comme l'allègue la plainte, mais il a à plusieurs reprises et sans aucun doute trompé le public sur le cloaque de discours de haine sur sa plate-forme, et à quel point l'entreprise est terrible à freiner. dans.
Ne soyez pas surpris de voir l'équipe de défense de Facebook sauter sur le laisser-aller de l'équipe Haugen. Mais ne vous laissez pas induire en erreur par tout effort visant à discréditer les conclusions du dénonciateur. L'essentiel est que Facebook sait depuis des années qu'il échoue lamentablement à contrôler les discours de haine sur sa plate-forme, et pour le cacher aux investisseurs et au public, Facebook a colporté le taux proactif dénué de sens pour nous distraire du taux de retrait significatif et étroitement surveillé. .
Une autre mesure dont Facebook se réjouit parfois est la "prévalence" du discours de haine. Lorsqu'on lui a demandé de commenter cet article, un porte-parole de Facebook a écrit dans un communiqué envoyé par courrier électronique que "la prévalence du discours de haine sur Facebook est désormais de 0,05% du contenu consulté et a diminué de près de 50% au cours des trois derniers trimestres". La prévalence donne une idée de la quantité de discours de haine sur la plate-forme, mais elle brosse toujours un portrait trompeusement optimiste. La distribution du discours de haine est si inégale qu'un pourcentage aussi émoussé masque la forte prévalence du discours de haine qui se produit dans des communautés spécifiques et que de nombreux utilisateurs individuels subissent. De plus, voir du contenu non haineux sur Facebook ne rend pas le contenu haineux moins nocif, et pourtant c'est exactement ce que suggère le recours à la prévalence.
Alors que l'attention du public passe de la découverte des maux des médias sociaux à la recherche de moyens d'y remédier, il y a deux points importants à retenir ici.
Premièrement, Zuckerberg a longtemps répété l'affirmation selon laquelle les améliorations de l'IA seront la clé de l'entreprise pour faire face aux contenus préjudiciables. Il l'a dit à la suite des élections de 2016, après que les campagnes de désinformation russes se soient déchaînées sur la plateforme. Il l'a dit dans une vidéo Facebook Live de 2017, alors qu'il faisait griller de la viande dans son jardin : « Avec l'IA en particulier, je suis vraiment optimiste. Les gens qui sont pessimistes et qui essaient en quelque sorte d'inventer ces scénarios apocalyptiques, c'est juste que je ne comprends pas. Il est révélateur que le PDG de Facebook partage plus de détails sur la façon dont il fume la poitrine d'une vache qu'il a abattue (réglée à 225 degrés pendant huit heures, inversée toutes les deux heures) que sur la maîtrise de l'IA de son entreprise, mais voici un scénario apocalyptique qu'il peut comprendre : Nous sommes en 2021, et l'IA de Facebook ne capte toujours qu'une infime partie des discours de haine de la plateforme.
Malheureusement, il n'y a pas de solution miracle en matière de discours de haine en ligne. La modération de contenu est un problème incroyablement difficile, et nous devons admettre que l'IA est très loin de la panacée pour laquelle elle est souvent présentée. Mais s'il y a un point mis en évidence plus que tout par Haugen et les lanceurs d'alerte qui l'ont précédée, c'est que nous ne pouvons pas simplement espérer l'honnêteté des géants de la technologie - nous devons trouver des moyens de l'imposer légalement. Cela nous amène au deuxième plat à emporter:
Une réglementation simple mais utile en matière de transparence consisterait à exiger que toutes les plateformes publient leurs taux de retrait pour les différentes catégories de contenus préjudiciables (tels que les discours de haine et la désinformation). Les taux de retrait peuvent sûrement être joués, mais ce serait toujours un pas dans la bonne direction, et cela empêcherait l'astuce trompeuse que Facebook utilise depuis des années. De la même manière que vous et moi avons besoin d'un pointage de crédit pour obtenir un prêt, Facebook et d'autres plateformes de médias sociaux devraient avoir besoin d'un pointage de crédit de modération de contenu - basé sur les taux de retrait, et non sur les taux proactifs ou d'autres mesures inutiles - pour continuer à faire des affaires.