Incidents associés

Les employés de Facebook ont tiré la sonnette d'alarme à plusieurs reprises sur l'incapacité de l'entreprise à freiner la propagation des publications incitant à la violence dans des pays « à risque » comme l'Éthiopie, où une [guerre civile](https://edition.cnn.com/2021/10/22/ africa/ethiopia-airstrikes-tigray-friday-intl/index.html) fait rage depuis un an, selon des documents internes consultés par CNN. Le géant des médias sociaux classe l'Éthiopie dans son niveau de priorité le plus élevé pour les pays à risque de conflit, mais les documents révèlent que les efforts de modération de Facebook n'étaient pas à la hauteur du flot de contenus incendiaires sur sa plateforme. Les documents font partie des dizaines de divulgations faites à la Securities and Exchange Commission (SEC) des États-Unis et fournies au Congrès sous forme expurgée par [la dénonciatrice de Facebook Frances Haugen] (https://edition.cnn.com/2021/10/04/tech /facebook-whistleblower-frances-haugen-what-we-know/index.html) conseiller juridique. Un consortium de 17 agences de presse américaines, dont CNN, a examiné les versions expurgées reçues par le Congrès. Ils montrent des employés avertissant les responsables de la façon dont Facebook était utilisé par des «acteurs problématiques», y compris des États et des organisations étrangères, pour diffuser des discours de haine et des contenus incitant à la violence en Éthiopie et dans d'autres pays en développement, où sa base d'utilisateurs est importante et en croissance. Facebook estime qu'il compte 1,84 milliard d'utilisateurs actifs quotidiens, dont 72% en dehors de l'Amérique du Nord et de l'Europe, selon son dossier annuel auprès de la SEC pour 2020. Les documents indiquent également que l'entreprise n'a, dans de nombreux cas, pas suffisamment augmenté son personnel ou ajouter des ressources en langue locale pour protéger les personnes dans ces lieux. Facebook utilisé par les milices « pour semer les appels à la violence » --------------------------------------- --------------- Les rapports que CNN a obtenus fournissent des informations supplémentaires sur l'ampleur du problème en Éthiopie, dont des éléments ont été rapportés par [The Wall Street Journal] (https://www .wsj.com/articles/facebook-drug-cartels-human-traffickers-response-is-weak-documents-11631812953) le mois dernier. La publication par CNN de ces avertissements au sein de Facebook intervient sept mois après qu'une équipe de Facebook a initialement partagé un rapport interne intitulé "Coordinated Social Harm". Le rapport, distribué en mars, indiquait que des groupes armés en Éthiopie utilisaient la plateforme pour inciter à la violence contre les minorités ethniques dans le « contexte de la guerre civile ». À cette époque, un conflit dans la région nord du Tigré entre son ancien parti au pouvoir, le Front de libération du peuple du Tigré (TPLF), et le gouvernement éthiopien grondait depuis cinq mois. Les pannes d'Internet intermittentes et les restrictions des médias avaient obscurci une grande partie des combats. L'Éthiopie est une nation ethniquement et religieusement diversifiée d'environ 110 millions de personnes qui parlent des dizaines de langues. Ses deux plus grands groupes ethniques, les Oromo et les Amhara, représentent plus de 60 % de la population. Les Tigréens, le troisième plus grand, représentent environ 7 %. L'un des groupes signalés dans le rapport de mars était le «Fano», une milice ethnique amhara réputée pour sa brutalité qui a été entraînée dans la guerre du Tigré, combattant parfois aux côtés des forces gouvernementales éthiopiennes. Facebook a déclaré avoir observé un groupe de comptes affiliés à la milice, dont certains basés au Soudan, utilisant sa plateforme pour "semer des appels à la violence", promouvoir les conflits armés, recruter et collecter des fonds. Depuis le début de la guerre en novembre dernier, la milice Fano a été liée par des Tigréens déplacés à des violations des droits humains, notamment des meurtres de civils, des pillages et des viols, selon le bureau des droits de l'homme des Nations Unies, [Amnesty International](https://www.amnesty.org/en/documents/afr25/4569/2021 /fr/) et d'autres groupes de défense des droits de l'homme. Bien que l'équipe de Facebook ait déclaré qu'elle avait recommandé la suppression du réseau affilié à Fano, elle a suggéré que d'autres mauvais acteurs faisant la promotion de la violence sur sa plate-forme passaient simultanément entre les mailles du filet. Dans un titre en gras, l'équipe a averti : « Les stratégies d'atténuation actuelles ne suffisent pas. Les documents de Facebook détaillent également la suppression par la plateforme d’un groupe de comptes liés à la diaspora oromo, principalement basée en Égypte, qui ciblait le public éthiopien avec un contenu hautement incendiaire, notamment « des appels explicites à la violence contre des responsables gouvernementaux et d’autres groupes ethniques ». Un message incitatif mis en évidence dans un rapport a partagé une photo de ce qui semble être un cocktail Molotov allumé et la déclaration : « Brûlez tout le pays ». La lanceuse d'alerte, Haugen, a déclaré que l'une de ses principales motivations pour rassembler les documents internes était de mettre en lumière "à quel point Facebook gère mal des endroits comme l'Éthiopie", où elle a suggéré que le classement basé sur l'engagement attisait la violence ethnique. "Je crains sincèrement qu'un grand nombre de personnes ne meurent dans les cinq à dix prochaines années, ou vingt ans, à cause des choix et du sous-financement" de Facebook, a déclaré Haugen. Dans des commentaires adressés au consortium, Haugen a souligné la grande différence entre les systèmes d'intégrité et de sécurité déployés par Facebook aux États-Unis par rapport au reste du monde, ajoutant que l'entreprise ne surveillait pas adéquatement sa plate-forme dans la plupart des langues autres que l'anglais. "La version brute [de Facebook] qui erre dans la majeure partie du monde n'a rien de ce qui la rend acceptable aux États-Unis, et je pense sincèrement qu'il y a beaucoup de vies en jeu - ça Le Myanmar et l'Éthiopie sont comme le chapitre d'ouverture », a-t-elle déclaré. Un porte-parole de Facebook a déclaré à CNN que la société s'était "activement concentrée sur l'Éthiopie". "Au cours des deux dernières années, nous avons activement investi pour ajouter plus de personnel avec une expertise locale, des ressources opérationnelles et une capacité d'examen supplémentaire pour étendre le nombre de langues locales que nous soutenons pour inclure l'amharique, l'oromo, le somali et le tigrinya. Nous nous sommes efforcés d'améliorer notre détection proactive afin de pouvoir supprimer les contenus les plus dangereux à grande échelle. Nous avons également noué de nombreux partenariats avec des experts internationaux et locaux pour mieux comprendre et atténuer les plus grands risques sur la plateforme », a déclaré le porte-parole. Les stratégies d'atténuation actuelles ne suffisent pas -------------------------------------------- Aucune des révélations des documents Facebook n'est nouvelle pour les militants et les groupes de défense des droits humains, qui avertissent depuis des années que le géant des médias sociaux n'a pas fait suffisamment d'efforts pour protéger les droits humains en Éthiopie, le deuxième pays le plus peuplé d'Afrique. Certains politiciens et groupes de la société civile a déclaré que si aucune mesure n'était prise, la plate-forme risquait de répéter les mêmes erreurs qu'elle a commises au Myanmar - maintenant une étude de cas dans la mortelle impact que le discours de haine partagé sur Facebook peut avoir. En 2018, l'ONU a dénoncé le rôle de Facebook dans la crise du Myanmar, qui, selon l'organisme mondial, [« portait la marque d'un génocide ».](https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx ? NewsID=22793&LangID=E ) En faisant la promotion de la violence et de la haine contre la population minoritaire Rohingya, l'ONU a déclaré que Facebook s'était [« transformé en bête ».](https://edition.cnn.com/2018/04/06/asia/ myanmar-facebook-social-media-genocide-intl/index.html) La société de médias sociaux a reconnu plus tard qu'elle n'avait pas fait assez pour empêcher que sa plate-forme ne soit utilisée pour alimenter l'effusion de sang, et [le directeur général Mark Zuckerberg](https:/ /edition.cnn.com/2018/11/06/tech/facebook-myanmar-report/index.html) a écrit une lettre ouverte s'excusant auprès des militants et promettant d'intensifier ses efforts de modération. Tout comme au Myanmar, la montée en popularité de Facebook en Éthiopie est survenue à un moment de changement politique et sociétal rapide, ce qui a contribué à stimuler la croissance de la plateforme. En 2018, Abiy Ahmed a été nommé Premier ministre et lancé une série de réformes, notamment la libération de milliers de prisonniers politiques et la levée des restrictions sur la presse. Mais alors que les Éthiopiens ont commencé à utiliser Facebook pour s'engager dans un débat public, les observateurs ont constaté que la plateforme était utilisée abusivement par divers acteurs, y compris des politiciens, pour inciter à la discrimination et à la violence. L'ancien rapporteur spécial de l'ONU pour la liberté d'expression David Kaye a déclaré à CNN que ce problème revenait à plusieurs reprises lors de conversations avec des groupes de la société civile lors de son voyage en Éthiopie en décembre 2019 : être un véritable débordement de la plate-forme sur les dommages hors ligne. "Compte tenu de l'expérience au Myanmar, il incombait vraiment à Facebook de faire une évaluation de l'impact sur les droits de l'homme et d'évaluer ce qu'ils devaient faire pour que Facebook en Éthiopie ne devienne pas un lieu d'incitation à la violence", a déclaré Kaye, ajoutant qu'il ne savait pas à quoi ressemblait cette évaluation ou si elle avait été faite. En juin 2020, un employé de Facebook a publié un rapport à un groupe interne d'environ 1 500 membres appelé "At Risk Countries FYI" récapitulant un audit en cours sur la façon dont son intelligence artificielle et d'autres signaux, comme les vérificateurs de faits tiers, ont fonctionné le plus à -pays à risque où opère la plateforme. "Nous avons trouvé des lacunes importantes dans notre couverture (en particulier au Myanmar et en Éthiopie), montrant que nos signaux actuels peuvent être inadéquats", a écrit l'employé, partageant une feuille de calcul avec une liste de pays à risque et les langues prises en charge par la plate-forme dans chaque . La feuille de calcul a montré que Facebook n'avait pas réussi à créer des systèmes automatisés, appelés classificateurs, pour détecter la désinformation ou les discours de haine en oromo ou en amharique - deux des langues les plus parlées en Éthiopie. Alors même que le conflit dans le Tigré s'intensifiait, Haugen a déclaré qu'elle n'avait trouvé que des preuves que Facebook avait alloué "même un léger support linguistique" dans deux des nombreuses langues maternelles du pays. Facebook dit qu'il ne pense pas qu'il devrait être les "arbitres de la vérité" donc l'entreprise s'appuie sur des organisations tierces de vérification des faits pour identifier, examiner et évaluer les fausses informations potentielles sur ses plateformes. Facebook s'est associé à deux de ces organisations en Éthiopie : AFP Fact Check et PesaCheck, une société basée en Afrique de l'Est. initiative à but non lucratif gérée par Code for Africa. PesaCheck dispose de cinq vérificateurs de faits éthiopiens à temps plein travaillant dans quatre langues – oromo, amharique, tigrinya et anglais – mais affirme avoir récemment dû déplacer un membre du personnel d'Éthiopie en raison d'intimidations. AFP Fact Check emploie un fact-checker en Éthiopie, Amanuel Neguede, qui examine le contenu en amharique et en anglais. Chaque jour, Neguede a déclaré à CNN qu'il examinait des milliers de messages sur un outil interne de Facebook, qui fait apparaître du contenu signalé comme faux ou trompeur grâce à une combinaison d'IA et de modérateurs humains. À l'origine, Neguede a déclaré que l'AFP n'avait accès qu'au contenu en anglais en Éthiopie via l'outil, qui n'affichait qu'un contenu limité chaque jour. L'outil a commencé à diffuser du contenu en langue amharique de l'AFP en mai, et maintenant le nombre de réclamations qu'il dit voir quotidiennement a considérablement augmenté. L'outil n'identifie pas toujours avec précision la désinformation et la désinformation, mais Neguede dit que cela l'aide dans son travail. "J'ai vu beaucoup de discours de haine, cela alimente certainement la violence ethnique en Éthiopie", a déclaré Neguede. «Chaque fois qu'il y a une offensive majeure, par exemple dans le nord, nous pouvons voir beaucoup d'images de conflits qui se sont déroulés dans différents pays utilisées dans un contexte trompeur. Je dirais que la plupart du temps, nous verrons des publications apparaître – en particulier des publications largement partagées – après de vrais événements d'actualité. Mais des chercheurs comme Berhan Taye affirment que Facebook en Éthiopie a désespérément besoin de plus de modérateurs de contenu, soulignant comment la plate-forme a été utilisée pour attiser une vague de violence meurtrière après le meurtre du musicien oromo [Hachalu Hundessa](https://edition.cnn .com/2020/07/02/africa/ethiopian-singer-buried-protests-intl/index.html) l'année dernière. Taye, alors responsable des politiques du groupe de défense des droits numériques Access Now, se souvient avoir regardé des diffusions en direct de lynchages et des messages appelant à l'extermination ciblée de certains groupes ethniques, après la mort de Hundessa. Elle a écrit une lettre ouverte appelant Facebook à prendre des mesures pour protéger les Éthiopiens. Elle dit que peu de choses ont changé depuis. Pour cette raison, Taye, désormais analyste indépendant basé à Nairobi, travaille avec des volontaires locaux pour rassembler les informations erronées et les discours de haine qu'ils repèrent sur la plate-forme dans des feuilles de calcul Excel, qu'ils envoient ensuite à Facebook pour suppression. Mais elle dit qu'une grande partie de ce qu'ils signalent - y compris les messages appelant à l'extermination de certains groupes ethniques - ne sont pas supprimés et, parfois, l'entreprise a répondu à des militants leur demandant de traduire des messages. Facebook affirme avoir amélioré ses outils de signalement pour les Éthiopiens afin de leur permettre de signaler plus rapidement et plus facilement les contenus qui, selon eux, violent ses normes communautaires, qui sont désormais disponibles en amharique et récemment lancés en oromo. Il affirme avoir également mis en place des canaux de signalement pour les groupes internationaux et locaux de défense des droits de l'homme et les organisations de la société civile afin de signaler les contenus potentiellement préjudiciables en Éthiopie. La modération de contenu est un travail extrêmement dangereux en Éthiopie, dit Taye, ajoutant qu'elle a été personnellement accusée de se ranger du côté d'une personne ou d'un groupe parce qu'un message a été supprimé. La tâche est aussi mentalement épuisante ; les bénévoles passent des heures à réviser le contenu graphique, le faisant souvent parallèlement à des emplois à temps plein et à élever leurs enfants. Taye a déclaré qu'il était inacceptable que les pauvres soient effectivement laissés au "sale boulot" de l'une des entreprises les plus riches du monde. Facebook ne révélera pas exactement combien de locuteurs de la langue locale évaluent le contenu en Éthiopie qui a été signalé comme pouvant enfreindre ses normes, ni combien il a investi dans les ressources pour mieux contrôler sa plate-forme dans le pays. Un porte-parole de Facebook a déclaré que la société avait investi « 13 milliards de dollars et que 40 000 personnes travaillent sur la sûreté et la sécurité sur notre plate-forme, dont 15 000 personnes qui examinent le contenu dans plus de 70 langues travaillant dans plus de 20 endroits à travers le monde pour soutenir notre communauté. . Notre programme de vérification des faits par des tiers comprend plus de 80 partenaires qui examinent le contenu dans plus de 60 langues, et 70 de ces vérificateurs des faits se trouvent en dehors des États-Unis. "Notre bilan montre que nous réprimons les abus en dehors des États-Unis avec la même intensité que nous appliquons aux États-Unis", a ajouté le porte-parole. Une guerre contre les réseaux sociaux --------------------- Depuis que la guerre a éclaté au Tigré, les partisans du gouvernement et du TPLF ont mené une lutte parallèle sur les réseaux sociaux, créant un champ de bataille virtuel de haine ethnique et religieuse toxique. Mais il est difficile de déterminer quand les atrocités qui se déroulent sur le terrain sont le résultat direct de contenus haineux partagés en ligne. Le chef de l'Agence américaine pour le développement international Samantha Power s'est dite préoccupée en août par la "rhétorique enflammée" et "déshumanisante" qu'elle a dit que les dirigeants éthiopiens invoquaient au milieu du conflit au Tigré, dont les forces ont été décrites par le Premier ministre Abiy Ahmed comme des "mauvaises herbes" et un "cancer" dans un post partagé sur Facebook . Power a souligné que "le discours de plus en plus virulent" utilisé par le Premier ministre et d'autres responsables, également partagé sur les réseaux sociaux, "accompagne souvent les atrocités à motivation ethnique". Le langage d'Abiy a également été condamné par la conseillère spéciale de l'ONU pour la prévention du génocide [Alice Wairimu Nderitu](https://reliefweb.int/report/ethiopia/statement-alice-wairimu-nderitu-united-nations-special-adviser-prevention -génocide), qui a averti que "le discours de haine, ainsi que sa propagation à travers les réseaux sociaux, fait partie d'une tendance inquiétante qui contribue à alimenter davantage les tensions ethniques dans le pays". Les militants disent que le langage de division a été repris par les partisans d'Abiy en ligne. CNN a contacté le bureau du Premier ministre éthiopien pour obtenir des commentaires. En juin, quelques jours avant les élections nationales éthiopiennes, qu'Abiy a remportées de manière écrasante, Facebook a dit il a supprimé un réseau de faux comptes ciblant les utilisateurs domestiques principalement en amharique. Facebook a lié les comptes à des personnes associées à l'Agence éthiopienne de sécurité des réseaux d'information (INSA), l'agence de cybersécurité qu'Abiy a créée et dirigée avant de devenir Premier ministre. Une page Facebook avec un administrateur affilié à l'INSA a également été signalée dans des documents internes de Facebook en mars, mais sa suppression n'a pas été recommandée. Alors que le conflit s'intensifie en ligne et hors ligne, le gouvernement éthiopien a accusé Facebook de bloquer les utilisateurs et de supprimer les messages "diffusant la vraie réalité sur l'Éthiopie". (https://www.reuters.com/article/ctech-us-ethiopia-socialmedia-idCAKBN2FO0X3-OCATC) en août, il avait commencé à développer sa propre plateforme de médias sociaux pour rivaliser et remplacer Facebook, WhatsApp et Twitter.