Incidents associés

Facebook n'a pas été en mesure de détecter les trois quarts des publicités tests appelant explicitement à la violence et au meurtre de travailleurs électoraux américains avant les élections de mi-mandat fortement contestées du début du mois, selon une nouvelle enquête menée par Global Witness et la Tandon School of Engineering de l'Université de New York Cybersecurity pour la démocratie (C4D).
L'[enquête](https://www.globalwitness.org/en/campaigns/digital-threats/were-going-to-kill-you-all-facebook-fails-to-detect-death-threats-against-election -workers-in-the-us-while-youtube-and-tiktok-succeed/) a testé la capacité de Facebook, TikTok et YouTube à détecter les publicités contenant des menaces de mort contre les travailleurs électoraux et a révélé des résultats très contrastés pour les géants des médias sociaux : YouTube et TikTok a suspendu nos comptes pour avoir enfreint leurs politiques, tandis que Facebook a accepté 75% -15 des 20- publicités contenant des menaces de mort que nous leur avons soumises pour publication.
Les publicités contenaient dix exemples concrets de menaces de mort proférées contre des travailleurs électoraux et incluaient des déclarations selon lesquelles des personnes seraient tuées, pendues ou exécutées, et que des enfants seraient agressés. Nous avons testé les versions anglaise et espagnole de ces annonces et les avons soumises le jour ou la veille des élections de mi-mandat. Global Witness et C4D ne publient pas ces annonces publiquement en raison du discours violent qu'elles contiennent [1].
Une fois que Facebook a approuvé la publication des publicités, Global Witness et C4D ont supprimé les publicités avant qu'elles ne soient affichées sur la plateforme afin d'éviter de diffuser des propos haineux et violents.
Cette enquête fait suite à un [rapport récent de Global Witness et](https://www.globalwitness.org/en/campaigns/digital-threats/tiktok-and-facebook-fail-detect-election-disinformation-us -while-youtube-succeeds/) C4D qui a montré que Facebook n'a pas non plus pleinement détecté les publicités de désinformation électorale avant la mi-mandat, y compris les publicités qui fournissaient la mauvaise date d'élection et les publicités tentant de délégitimer le processus électoral. Cette enquête a également testé les capacités de TikTok et YouTube à détecter la désinformation électorale. Contrairement à cette enquête, TikTok a approuvé 90% des publicités de désinformation électorale.
« Il est incroyablement alarmant que Facebook ait approuvé des publicités menaçant les travailleurs électoraux de violence, de lynchage et de meurtre – au milieu de menaces réelles croissantes contre ces travailleurs », a déclaré Rosie Sharpe, enquêteuse chez Global Witness. “Ce type d'activité menace la sécurité de nos élections. Pourtant, ce que Facebook dit faire pour assurer la sécurité de sa plate-forme ne ressemble guère à ce qu'il fait réellement. L'incapacité de Facebook à détecter les discours de haine et la désinformation électorale - malgré ses engagements publics - est un problème mondial, comme Global Witness l'a montré cette année dans des enquêtes au [Brésil](https://www.globalwitness.org/en/press-releases/ après-des-avertissements-répétés-youtube-et-facebook-continuent-d'approuver-la-désinformation-flagrante-leurs-plates-formes-devant-la-course-présidentielle-brésilienne/),_ [Éthiopie](https://www.globalwitness. org/en/campaigns/digital-threats/ethiopia-hate-speech/), [Kenya](https://www.globalwitness.org/en/press-releases/facebook-approves-ads-calling-ethnic- violence-lead-tense-kenyan-election/), Myanmar and [Norvège]( https://www.globalwitness.org/en/campaigns/digital-threats/open-door-hate-meta-approves-ads- contains-far-right-hate-speech-norwegian/)."
_"L'incapacité de Facebook à bloquer les publicités prônant la violence contre les travailleurs électoraux met en péril la sécurité de ces travailleurs. Il est troublant que Facebook permette aux annonceurs surpris en train de menacer de violence de continuer à acheter des publicités. Facebook doit améliorer ses méthodes de détection et interdire les annonceurs qui font la promotion de la violence », a déclaré Damon McCoy, codirecteur de C4D.
Global Witness a contacté le propriétaire de Facebook, Meta, pour commenter ces conclusions et un porte-parole a répondu : « Il s'agit d'un petit échantillon de publicités qui ne sont pas représentatives de ce que les gens voient sur nos plateformes. Le contenu qui incite à la violence contre les travailleurs électoraux ou toute autre personne n'a pas sa place sur nos applications et des rapports récents ont clairement montré que la capacité de Meta à traiter ces problèmes dépasse effectivement celle des autres plateformes. Nous restons déterminés à continuer d'améliorer nos systèmes.
Nous avons demandé à Meta des preuves à l'appui de l'affirmation selon laquelle la plateforme est plus efficace que les autres plateformes pour lutter contre l'incitation à la violence. Meta a fourni des citations publiées dans les médias qui notent que Meta a plus de ressources consacrées que d'autres plates-formes et qu'il réussit mieux à la modération que certaines plates-formes alt right. Bien que ces affirmations puissent être factuelles, elles ne constituent pas la preuve que Meta est meilleur pour détecter l'incitation à la violence que d'autres plateformes grand public. De plus, il ne devrait y avoir aucune tolérance pour un échec avant une élection majeure, lorsque les tensions et le potentiel de préjudice sont élevés.
Global Witness et C4D appellent les plateformes de réseaux sociaux à disposer de ressources adéquates pour la modération de leur contenu dans le monde entier afin de garantir la sécurité d'utilisation de leurs produits. Voir la liste complète des recommandations que Facebook doit mettre en œuvre de toute urgence [ici](https://www.globalwitness.org/en/campaigns/digital-threats/were-going-to-kill-you-all-facebook-fails-to- détecter-les-menaces-de-mort-contre-les-travailleurs-électoraux-aux-états-unis-pendant-que-youtube-et-tiktok-succeed/).