Incidents associés

YANGON, Myanmar – En avril, le fondateur de Facebook, Mark Zuckerberg, a déclaré aux sénateurs américains que le site de médias sociaux embauchait des dizaines de locuteurs birmans supplémentaires pour examiner les discours de haine publiés au Myanmar. La situation était désastreuse. Quelque 700 000 membres de la communauté Rohingya ont récemment fui le pays au milieu d'une répression militaire et de violences ethniques. En mars, un enquêteur des Nations Unies a déclaré que Facebook était utilisé pour inciter à la violence et à la haine contre le groupe minoritaire musulman. La plate-forme, a-t-elle dit, s'était "transformée en bête". Quatre mois après la promesse d'agir de Zuckerberg, voici un échantillon de messages du Myanmar qui ont été consultés ce mois-ci sur Facebook : Un utilisateur a publié une publicité pour un restaurant proposant des plats de style rohingya. « Nous devons les combattre comme Hitler a combattu les Juifs, maudits kalars ! la personne a écrit, en utilisant un péjoratif pour les Rohingyas. Ce poste a été publié en décembre 2013. Un autre poste montrait un article de presse d'une publication contrôlée par l'armée sur des attaques contre des postes de police par des militants rohingyas. "Ces chiens kalar non humains, les Bengalis, tuent et détruisent notre terre, notre eau et notre peuple ethnique", a écrit l'utilisateur. "Nous devons détruire leur race." Ce poste a augmenté en septembre dernier, alors que la violence contre les Rohingyas atteignait son apogée. Un troisième utilisateur a partagé un article de blog illustrant une cargaison de réfugiés rohingyas débarquant en Indonésie. "Versez du carburant et mettez le feu pour qu'ils puissent rencontrer Allah plus rapidement", a écrit un commentateur. Le message est apparu 11 jours après le témoignage de Zuckerberg au Sénat. Ces remarques font partie des plus de 1 000 exemples trouvés par Reuters de messages, commentaires, images et vidéos attaquant les Rohingyas ou d'autres musulmans du Myanmar qui étaient sur Facebook la semaine dernière. Presque tous sont dans la principale langue locale, le birman. L'invective anti-Rohingya et anti-musulmane analysée pour cet article - qui a été recueillie par Reuters et le Centre des droits de l'homme de la faculté de droit de l'Université de Berkeley - comprend des éléments publiés sur Facebook depuis six ans. Les messages empoisonnés appellent les Rohingyas ou d'autres musulmans des chiens, des asticots et des violeurs, suggèrent qu'ils soient nourris aux porcs et demandent instamment qu'ils soient abattus ou exterminés. Le matériel comprend également des images anti-musulmanes grossièrement pornographiques. Les règles de l'entreprise interdisent spécifiquement d'attaquer les groupes ethniques avec des "discours violents ou déshumanisants" ou de les comparer à des animaux. Facebook a également depuis longtemps une politique stricte contre le contenu pornographique. L'utilisation de Facebook pour diffuser des discours de haine contre les Rohingyas dans le pays à majorité bouddhiste a été largement rapportée par l'ONU et d'autres. Maintenant, une enquête de Reuters donne un aperçu des raisons pour lesquelles l'entreprise n'a pas réussi à résoudre le problème. Pendant des années, Facebook – qui a déclaré un revenu net de 15,9 milliards de dollars en 2017 – a consacré peu de ressources à la lutte contre les discours de haine au Myanmar, un marché qu'il domine et dans lequel il y a eu des flambées régulières de violence ethnique. Début 2015, il n'y avait que deux personnes sur Facebook qui parlaient birman et examinaient les messages problématiques. Avant cela, la plupart des personnes examinant le contenu birman parlaient anglais. À ce jour, l'entreprise continue de s'appuyer fortement sur les utilisateurs signalant des discours de haine, en partie parce que ses systèmes ont du mal à interpréter le texte en birman. Même maintenant, Facebook n'a pas un seul employé dans le pays de quelque 50 millions d'habitants. Au lieu de cela, il surveille les discours de haine provenant de l'étranger. Cela se fait principalement par le biais d'une opération secrète à Kuala Lumpur qui est sous-traitée à Accenture, la société de services professionnels, et dont le nom de code est "Project Honey Badger". Selon des personnes proches du dossier, le projet, qui gère de nombreux pays asiatiques, a embauché il y a tout juste trois ans ses deux premiers locuteurs birmans, basés à Manille. En juin, Honey Badger comptait environ 60 personnes examinant les rapports de discours de haine et d'autres contenus publiés par les 18 millions d'utilisateurs actifs de Facebook au Myanmar. Facebook lui-même en avril avait trois locuteurs birmans à plein temps lors d'une opération de surveillance distincte à son siège international à Dublin, selon un ancien employé. Les employés de Honey Badger signent généralement des contrats renouvelables d'un an et acceptent de ne pas divulguer que le client est Facebook. Reuters a interrogé plus d'une demi-douzaine d'anciens moniteurs qui ont examiné le contenu de l'Asie du Sud-Est. Un responsable de Facebook a déclaré que l'externalisation de la surveillance de son contenu est plus efficace car les entreprises qu'il utilise sont spécialisées dans l'intensification de ces opérations. Il a refusé de divulguer le nombre de locuteurs birmans que l'entreprise a en poste dans le monde, affirmant qu'il était "impossible de savoir, d'être définitif à ce sujet". "Ce n'est pas assez", a-t-il ajouté. Pour de nombreuses personnes dans cette économie émergente, Facebook est Internet : il est tellement dominant que c'est le seul site qu'ils utilisent en ligne. Pourtant, la société a ignoré les avertissements répétés dès 2013 selon lesquels elle était confrontée à des problèmes. Des chercheurs et des militants des droits de l'homme disent avoir averti Facebook pendant des années que sa plateforme était utilisée au Myanmar pour promouvoir le racisme et la haine des musulmans, en particulier des Rohingyas. "Ils ont été avertis tant de fois", a déclaré David Madden, un entrepreneur technologique qui a travaillé au Myanmar. Il a déclaré avoir déclaré aux responsables de Facebook en 2015 que sa plate-forme était exploitée pour fomenter la haine lors d'une conférence qu'il a donnée à son siège à Menlo Park, en Californie. Une douzaine de personnes sur Facebook ont assisté à la réunion en personne, dont Mia Garlick, aujourd'hui directrice de la politique Asie-Pacifique de l'entreprise, a-t-il déclaré. D'autres se sont joints par vidéo. "Cela n'aurait pas pu leur être présenté plus clairement et ils n'ont pas pris les mesures nécessaires", a déclaré Madden. Dans un communiqué, Garlick a déclaré à Reuters : « Nous avons été trop lents à répondre aux préoccupations soulevées par la société civile, les universitaires et d'autres groupes au Myanmar. Nous ne voulons pas que Facebook soit utilisé pour répandre la haine et inciter à la violence. C'est vrai dans le monde entier, mais c'est particulièrement vrai au Myanmar où nos services peuvent être utilisés pour amplifier la haine ou exacerber les torts contre les Rohingyas. Elle a ajouté que Facebook s'attache à relever les défis propres au Myanmar "grâce à une combinaison de personnes, de technologies, de politiques et de programmes". La société a également déclaré avoir interdit plusieurs "personnages et organisations haineux" sur Facebook au Myanmar. Les luttes de Facebook au Myanmar font partie des problèmes beaucoup plus vastes auxquels il est confronté. Le témoignage de Zuckerberg au Congrès en avril s'est principalement concentré sur la mauvaise gestion des données des utilisateurs par l'entreprise, qu'elle censure les opinions conservatrices et l'exploitation de Facebook par la Russie pour se mêler de l'élection présidentielle américaine de 2016. "Coupez les cous des fils du chien et jetez-les dans l'eau" "Enfournez de la graisse de porc dans la bouche de ce satané kalar" "Versez du carburant et mettez le feu pour qu'ils puissent rencontrer Allah plus rapidement" De toutes les difficultés de Facebook, cependant, Le Myanmar est peut-être le plus sanglant. L'armée du Myanmar est accusée par l'ONU d'avoir mené une campagne brutale de meurtres, de viols massifs, d'incendies criminels et de nettoyage ethnique contre les Rohingyas. Le gouvernement nie les allégations. Le géant des médias sociaux ne rend pas publiques ses données sur les discours de haine au Myanmar. Il indique qu'il compte 2,2 milliards d'utilisateurs dans le monde et reçoit chaque semaine des millions de rapports d'utilisateurs du monde entier sur des contenus problématiques. En compilant des exemples de discours de haine pour cet article, Reuters en a trouvé certains que Facebook a ensuite supprimés. Mais la grande majorité restait en ligne début août. Après que Reuters ait alerté Facebook de certains des messages désobligeants inclus dans cette histoire, la société a déclaré qu'elle les avait supprimés. "Tout cela a violé nos politiques", a-t-il déclaré. Reuters lui-même signale parfois à Facebook les menaces postées sur la plateforme contre ses reporters. Il s'agit notamment des journalistes birmans Wa Lone et Kyaw Soe Oo, qui sont jugés au Myanmar pour violation d'une loi sur les secrets d'État. Les deux hommes ont été arrêtés en décembre alors qu'ils couvraient le massacre de 10 hommes rohingyas et ont reçu un déluge de menaces de mort sur les réseaux sociaux à cause de leur histoire. Facebook a supprimé ce contenu à plusieurs reprises à la demande de l'agence de presse. « Envoi de fleurs » Le Myanmar est sorti de décennies de régime militaire en 2011, mais la violence religieuse a gâché sa transition vers la démocratie. En 2012, des affrontements dans l'État de Rakhine entre l'ethnie Rakhine, qui sont bouddhistes, et les Rohingyas ont tué des dizaines de personnes et laissé 140 000 déplacés, principalement des musulmans. L'extraordinaire domination de Facebook au Myanmar a commencé à prendre racine à peu près à la même époque. Mais pas par conception. Il y a à peine six ans, le Myanmar était l'un des pays les moins connectés au monde. En 2012, seulement 1,1 % de la population utilisait Internet et peu de personnes possédaient un téléphone, selon l'Union internationale des télécommunications, une agence des Nations Unies. La junte qui a gouverné le pays pendant des décennies a maintenu les citoyens isolés. Tout a changé en 2013, lorsqu'un gouvernement quasi civil a supervisé la déréglementation des télécommunications. La compagnie de téléphone publique a soudainement été concurrencée par deux entrants étrangers dans la téléphonie mobile, la Norvège et le Qatar. Le prix des cartes SIM est passé de plus de 200 $ à aussi peu que 2 $ et les gens les ont achetées en masse. En 2016, près de la moitié de la population était abonnée à la téléphonie mobile, selon GSMA Intelligence, la branche de recherche de l'association professionnelle de l'industrie. La plupart des smartphones achetés avec accès à Internet. Une application est devenue virale : Facebook. Beaucoup y voyaient une solution tout-en-un, offrant un système de messagerie, des actualités, des vidéos et d'autres divertissements. Il est également devenu un symbole de statut social, a déclaré Chris Tun, un ancien consultant de Deloitte qui a conseillé le gouvernement. "Si vous n'utilisez pas Facebook, vous êtes en retard", a-t-il déclaré. "Même les grands-mères, tout le monde était sur Facebook." Pour attirer les clients, les opérateurs de téléphonie mobile du Myanmar ont commencé à proposer une offre intéressante : utiliser Facebook sans payer de frais de données. "Facebook devrait m'envoyer des fleurs, car nous avons été un accélérateur pour amener la pénétration", a déclaré Lars Erik Tellmann, qui était jusqu'en juillet directeur général de Telenor Myanmar, qui fait partie du groupe norvégien Telenor. « C'est une initiative que nous avons prise entièrement de notre côté. Et c'était extrêmement populaire. Au Myanmar aujourd'hui, le gouvernement lui-même utilise Facebook pour faire des annonces importantes, dont la démission du président en mars. "Génocide tous les musulmans" À l'automne 2013, Aela Callan, réalisatrice de documentaires australienne étudiante à l'Université de Stanford, a lancé un projet sur les discours de haine et les fausses nouvelles qui s'étaient propagées en ligne lors des conflits entre bouddhistes et musulmans rohingyas l'année précédente. En juin 2012, au moins 80 personnes sont mortes dans des émeutes et des milliers de Rohingyas ont été transférés dans des camps d'internement sordides. Des diatribes anti-Rohingya sont apparues sur Facebook. Un groupe nationaliste bouddhiste a créé une page appelée "Kalar Beheading Gang". En novembre 2013, elle a rencontré au siège social de Facebook en Californie Elliott Schrage, vice-président des communications et des politiques publiques. "J'essayais de l'alerter des problèmes", a-t-elle déclaré. Des e-mails entre les deux montrent que Schrage a mis Callan en contact avec internet.org, une initiative de Facebook visant à amener Internet dans les pays en développement, et avec deux responsables de Facebook, dont un qui a travaillé avec des organisations de la société civile pour aider l'entreprise à faire face à la haine. parole. "Il ne m'a mis en contact avec personne à l'intérieur de Facebook qui pourrait traiter le problème réel", a-t-elle déclaré. Invité à commenter, Schrage a référé Reuters à un journaliste de Facebook. L'entreprise n'a pas commenté la réunion. Matt Schissler, doctorant à l'Université du Michigan, a déclaré qu'entre mars et décembre 2014, il avait eu des discussions avec des responsables de Facebook lors d'une série d'appels et de communications en ligne. Il leur a expliqué comment la plateforme était utilisée pour diffuser des discours de haine et de fausses rumeurs au Myanmar, a-t-il dit, notamment via de faux comptes. Lui et d'autres militants ont fourni à l'entreprise des exemples précis, notamment une page Facebook en birman qui s'appelait : « Nous allons génocider tous les musulmans et les donner à manger aux chiens ». La page a été supprimée. Schissler appartenait à un groupe Facebook privé qui a été créé pour que les militants des droits de l'homme, les chercheurs et les employés d'entreprise du Myanmar, tels que le chef de la politique Asie-Pacifique Garlick, puissent discuter de la manière de faire face aux discours de haine et à d'autres problèmes. Les militants ont soulevé de nombreux problèmes avec le système de signalement en plusieurs étapes de Facebook pour les contenus problématiques. À titre d'exemple, ils ont cité une photographie d'un travailleur humanitaire dans l'État de Rakhine dans un message qui le qualifiait de "traître à la nation". Il avait été partagé 229 fois, selon les messages examinés par Reuters. L'un des membres du groupe privé l'avait signalé à Facebook comme du harcèlement d'un individu, mais a ensuite reçu un message : "Nous avons examiné la photo que vous avez signalée pour contenir des discours ou des symboles haineux et avons constaté qu'elle ne violait pas nos normes communautaires." Après de multiples plaintes de militants pendant six semaines, un employé de Facebook a finalement expliqué aux militants que la demande de retrait avait été rejetée car la photo avait été signalée, mais pas le commentaire au-dessus. Il a finalement été démonté. En mars 2015, Schissler a donné une conférence au siège de Facebook en Californie sur les nouveaux médias, en particulier Facebook, et la violence anti-musulmane au Myanmar. Plus d'une douzaine d'employés de Facebook étaient présents, a-t-il dit. Deux mois plus tard, Madden, l'entrepreneur technologique, a donné une conférence au siège de Facebook sur les tensions et la violence entre bouddhistes et musulmans. Il a dit avoir montré une photo trafiquée qui s'était répandue sur Facebook de la dirigeante de facto du pays, Aung San Suu Kyi, qui est bouddhiste, portant un foulard musulman. L'image, a déclaré Madden, signifiait qu'elle était sympathique aux musulmans – un "message très négatif" au Myanmar. "Le but de cette présentation était vraiment de tirer la sonnette d'alarme, de montrer très clairement le contexte dans lequel Facebook fonctionnait, et déjà la preuve de la façon dont il était mal utilisé", a-t-il déclaré. Il a quitté la réunion en pensant que son auditoire prenait la conversation au sérieux et agirait. « Que le peuple Rakhine… et tous les citoyens du Myanmar soient à l'abri des dangers des fils de chien, des petits-enfants d'un porc kalar et des violeurs » « Il suffit de les nourrir aux cochons » « Si c'est du kalar, débarrassez-vous de toute la race » Madden avait fondé un hub technologique et un accélérateur de start-up à Yangon appelé Phandeeyar. Il a déclaré que lui et d'autres personnes impliquées dans l'entreprise avaient interagi avec Facebook "plusieurs dizaines" de fois au cours des années suivantes, y compris par e-mail, dans le groupe Facebook privé et en personne, montrant à quel point les systèmes du réseau pour détecter et supprimer les contenus dangereux étaient inefficaces. . Il ne sait pas quelles mesures l'entreprise a prises en réponse. "Le problème central est que les mécanismes dont ils disposent pour réprimer le discours de haine en temps opportun, avant qu'il ne fasse de mal au monde réel, ne fonctionnent pas", a-t-il déclaré. Madden et Jes Kaliebe Petersen, le directeur général de Phandeeyar, ont déclaré que Facebook comptait encore trop sur leur groupe et d'autres bénévoles pour signaler les publications dangereuses. "Il ne devrait pas incomber à une organisation comme la nôtre ou à des personnes qui ont de bonnes relations avec des personnes à l'intérieur de Facebook de signaler ces choses", a déclaré Petersen. En avril, peu de temps avant le témoignage de Zuckerberg au Sénat, Phandeeyar et cinq autres groupes birmans l'ont fustigé pour avoir affirmé dans une interview avec Vox que les systèmes de Facebook avaient détecté et supprimé des messages incendiaires en septembre de l'année dernière. "Nous pensons que votre système, dans ce cas, c'était nous", ont-ils écrit. Zuckerberg s'est excusé. En 2014, les organisations technologiques et les chercheurs n'étaient pas les seuls à sonner l'alarme avec Facebook. Le gouvernement du Myanmar aussi. En juillet de cette année-là, des émeutes ont éclaté dans la ville centrale de Mandalay après que de fausses rumeurs se soient répandues en ligne, sur Facebook et ailleurs, selon lesquelles un musulman aurait violé une femme bouddhiste. Un bouddhiste et un musulman ont été tués dans les combats. Le gouvernement du Myanmar a demandé à Tun, alors consultant chez Deloitte, de contacter l'entreprise. Il a dit qu'il n'avait pas réussi au début et que le gouvernement avait brièvement bloqué Facebook. Tun a déclaré qu'il avait finalement aidé à organiser des réunions entre le gouvernement et Facebook. "Ce qu'ils ont promis de faire, c'est que lorsque vous repérez de fausses nouvelles, vous pouvez les contacter par e-mail", a déclaré Tun à propos de Facebook. "Et ils prendraient des mesures - ils étaient prêts à supprimer des pages après leur propre processus de vérification." Le gouvernement a commencé à signaler des cas à Facebook, mais Tun a déclaré qu'il s'était rapidement rendu compte que l'entreprise ne pouvait pas gérer les textes en birman. "Honnêtement, Facebook n'avait aucune idée du contenu birman. Ils n'étaient absolument pas préparés », a-t-il déclaré. "Nous avons dû le traduire en anglais pour eux." "Je ne connais pas la langue" En août 2013, Zuckerberg a annoncé un plan visant à rendre Internet accessible pour la première fois à des milliards de personnes dans les pays en développement. "Tout ce que Facebook a fait a consisté à donner à tous les gens du monde le pouvoir de se connecter", a-t-il déclaré. L'entreprise s'emploierait désormais, a-t-il ajouté, à rendre "l'accès à Internet accessible à ceux qui ne peuvent pas se le permettre actuellement". Mais au Myanmar, la barrière de la langue causerait des problèmes. La plupart des gens ici ne parlent pas anglais. Bien que les utilisateurs du Myanmar puissent à l'époque publier sur Facebook en birman, l'interface de la plateforme - y compris son système de signalement des publications problématiques - était en anglais. Pire encore, l'opération de l'entreprise pour surveiller le contenu en birman était maigre. En 2014, le géant des médias sociaux n'avait qu'un seul examinateur de contenu qui parlait birman : un entrepreneur local à Dublin, selon les messages envoyés par les employés de Facebook dans le groupe de discussion privé de Facebook. Un deuxième locuteur birman a commencé à travailler début 2015, selon les messages. À Manille – le site d'origine du Project Honey Badger externalisé – il n'y avait aucun examinateur de contenu qui parlait birman. Les personnes qui ont examiné le contenu du Myanmar parlaient anglais. "Dans des cas comme le discours de haine où nous ne comprenions pas la langue, nous disions:" Je ne connais pas la langue "", a déclaré une personne qui y travaillait. "Le client a donc dû résoudre ce problème", a déclaré la personne, se référant à Facebook. En 2015, Facebook comptait environ quatre locuteurs birmans examinant le contenu du Myanmar à Manille et à Dublin. Ils étaient étirés : cette année-là, Facebook comptait 7,3 millions d'utilisateurs actifs au Myanmar. Accenture a lentement commencé à embaucher plus de locuteurs birmans. Avec l'aide de traducteurs bénévoles, Facebook a également introduit une interface en langue birmane. En 2016, le projet Honey Badger avait déménagé à Kuala Lumpur après qu'Accenture ait convaincu Facebook qu'il serait plus facile de recruter des Birmans et d'autres personnes pour travailler dans la capitale malaisienne que dans la région plus éloignée de Manille, selon une personne proche du dossier. Dans une tour de bureaux à Kuala Lumpur, des équipes de moniteurs de contenu sont chargées de gérer différents pays asiatiques, pas seulement le Myanmar. Ils sont payés environ 850 $ à 1 000 $ par mois et sont souvent employés par des agences de placement temporaire, selon d'anciens employés et des annonces de recrutement en ligne. Facebook a déclaré dans un communiqué : "Nous avons choisi de travailler uniquement avec des partenaires mondiaux très réputés qui prennent soin de leurs employés, les paient bien et offrent des avantages sociaux solides - cela inclut Accenture en Asie-Pacifique". Un porte-parole d'Accenture a confirmé son partenariat avec Facebook. "La qualification de nos opérations comme" secrètes "est trompeuse et la confidentialité est en place principalement pour protéger la vie privée et la sécurité de notre personnel et des clients que nous servons", a déclaré le porte-parole. L'homme de la communication Les anciens moniteurs de contenu ont déclaré qu'ils devaient souvent porter chacun des jugements sur 1 000 éléments de contenu potentiellement problématiques ou plus par jour, bien que le nombre soit désormais considéré comme inférieur. Les règles complètes de Facebook sur ce qui est autorisé et non autorisé sur sa plate-forme sont énoncées dans ses directives internes d'application des normes communautaires, que la société a rendues publiques pour la première fois en avril. Il définit le discours de haine comme « un discours violent ou déshumanisant, des déclarations d'infériorité ou des appels à l'exclusion ou à la ségrégation » contre des personnes en raison de leur race, de leur appartenance ethnique, de leur appartenance religieuse et d'autres caractéristiques. En réponse, Facebook a déclaré : "Les réviseurs de contenu ne sont pas tenus d'évaluer un nombre défini de messages... Nous encourageons les réviseurs à prendre le temps dont ils ont besoin." Un responsable de Facebook a également déclaré à Reuters que la politique des normes communautaires est mondiale, "mais il existe des nuances locales", telles que des insultes, que les examinateurs de contenu qui sont des locuteurs natifs peuvent prendre en compte lors de la prise de décisions. Mais d'anciens contrôleurs de contenu ont déclaré à Reuters que les règles étaient incohérentes; parfois ils pouvaient faire des exceptions et parfois ils ne le pouvaient pas. D'anciens contrôleurs de contenu ont également déclaré qu'ils avaient été formés pour pécher par excès en conservant du contenu sur Facebook. "La plupart du temps, vous essayez de donner à l'utilisateur le bénéfice du doute", a déclaré un ancien employé de Facebook. Les anciens moniteurs ont déclaré qu'ils n'avaient parfois que quelques secondes pour décider si un message constituait un discours de haine ou violait les normes communautaires de Facebook d'une autre manière. Ils ont dit qu'ils ne recherchaient pas eux-mêmes le discours de haine ; au lieu de cela, ils ont examiné une file d'attente géante de messages principalement signalés par les utilisateurs de Facebook. Selon Facebook, bon nombre des millions d'articles signalés dans le monde chaque semaine - y compris des diatribes violentes et des images sexuelles sinistres - sont détectés par des systèmes automatisés. Mais un responsable de l'entreprise a reconnu à Reuters que ses systèmes avaient du mal à interpréter l'écriture birmane en raison de la façon dont les polices sont souvent rendues sur les écrans d'ordinateur, ce qui rend difficile l'identification des insultes raciales et autres discours de haine. Les problèmes de Facebook sont évidents dans une nouvelle fonctionnalité qui permet aux utilisateurs de traduire le contenu birman en anglais. Considérez un article que Reuters a trouvé en août de l'année dernière. En birman, le post dit : « Tuez tous les kalars que vous voyez au Myanmar ; aucun d'entre eux ne devrait être laissé en vie. Traduction de Facebook en anglais : "Je ne devrais pas avoir d'arc-en-ciel au Myanmar." En réponse, Facebook a déclaré : "Notre équipe de traduction travaille activement sur de nouvelles façons de s'assurer que les traductions sont exactes." La société a déclaré qu'elle utilisait un système différent pour détecter les discours de haine. Guy Rosen, vice-président de la gestion des produits, a écrit dans un article de blog sur Facebook en mai sur les problèmes rencontrés par l'entreprise pour identifier les discours de haine. "Notre technologie ne fonctionne toujours pas très bien et doit donc être vérifiée par nos équipes d'examen", a-t-il écrit. Les responsables de Facebook ont déclaré qu'ils n'avaient pas l'intention dans l'immédiat d'embaucher des employés au Myanmar même. Mais l'entreprise passe des contrats avec des agences locales pour des tâches sans rapport avec la surveillance du contenu. L'un est Echo Myanmar, une société de communication dont le directeur général est Anthony Larmon, un Américain. Larmon a exprimé des opinions bien arrêtées sur les Rohingyas. Vers la fin de 2016, l'armée du Myanmar a lancé une attaque dans une dizaine de villages après que des militants rohingyas ont attaqué des postes frontières. À l'époque, un responsable de l'ONU a accusé le gouvernement de rechercher le "nettoyage ethnique" des Rohingyas. En novembre 2016, Larmon a écrit qu'un article sur l'allégation de l'ONU était "trompeur". Il a cité ce qu'il a dit être des affirmations de plusieurs "journalistes locaux" selon lesquelles la minorité ethnique "exagère (ment) délibérément" sa situation pour "obtenir plus d'aide et d'attention étrangères". Il a également écrit : "Non, ils ne sont pas confrontés à un nettoyage ethnique ou à quoi que ce soit de proche de ce que suggère ce terme incendiaire." Il a dit qu'il avait supprimé le poste plus tard. Un porte-parole de Facebook a déclaré que la publication de Larmon « ne représente pas le point de vue de Facebook ». Larmon a déclaré à Reuters: "C'était un commentaire trop émotif et sous-informé sur un sujet très nuancé que je regrette. Mon opinion sur les Rohingyas, la même aujourd'hui qu'alors, est qu'ils doivent être rapatriés et protégés en toute sécurité. La plateforme sur laquelle il a diffusé son point de vue sur les Rohingyas ? Facebook. Facebook n'est pas seul Facebook n'est pas la seule plate-forme de médias sociaux qui contient des discours de haine contre les musulmans rohingyas. Il a également proliféré sur Twitter. Au Myanmar, Twitter est beaucoup moins populaire que Facebook. Mais après que des insurgés rohingyas ont attaqué des postes de police en août 2017, déclenchant une répression de l'armée qui a forcé 700 000 personnes à abandonner leurs maisons, des centaines de nouveaux comptes Twitter ont soudainement vu le jour au Myanmar. De nombreux tweets sur ces comptes semblaient être des tentatives pour contrer les représentations sympathiques des Rohingyas par les médias occidentaux et les militants des droits de l'homme. Ils décrivent la minorité ethnique comme des immigrants illégaux du Bangladesh voisin, ou « Bengalis ». Les membres du groupe ethnique se considèrent comme originaires de l'État de Rakhine, dans l'ouest du Myanmar, mais le pays a refusé la citoyenneté à la plupart d'entre eux. Certains tweets sur ces comptes étaient dans un anglais approximatif : "Il n'y a pas de Rohingya au Myanmar, ce ne sont que des immigrants illégaux et des terroristes." "Ce sont à l'origine des Bangalis, des migrants illégaux et des voleurs de terres" Ces tweets et d'autres similaires pourraient encore être trouvés en ligne ce mois-ci. La « politique de conduite haineuse » de Twitter interdit d'attaquer des groupes de personnes sur la base de leur race, de leur origine ethnique ou de leur origine nationale, ou d'adopter un « comportement qui incite à craindre un groupe protégé ». Twitter a supprimé un certain nombre de tweets signalés par Reuters. Matthew Smith, co-fondateur de Fortify Rights, un groupe de défense des droits de l'homme basé en Asie du Sud-Est, a déclaré qu'après les attaques des insurgés rohingyas en août de l'année dernière, il avait remarqué que des comptes "suspects" le suivaient soudainement sur Twitter. Reuters a analysé les nouveaux abonnés Twitter de Smith à la suite des attaques avec l'aide de deux services d'analyse Twitter, ExportTweet.com et Mentionmapp Analytics. L'analyse a montré que plus de 1 200 des nouveaux comptes Twitter suivant Smith ont été créés entre le 27 et le 31 août, au plus fort de la répression militaire contre les Rohingyas dans l'ouest de l'État de Rakhine. Un examen de 564 de ces comptes a révélé que 349, soit 62 %, étaient anti-Rohingya, selon John Gray, co-fondateur de Mentionmapp. Mentionmapp n'a pas analysé les points de vue des autres comptes. Un rapport de Mentionmapp a révélé que l'émergence de ces comptes n'était probablement pas automatisée - ce qui signifie qu'ils n'étaient pas des bots - mais semblait être principalement une campagne anti-Rohingya "orchestrée" de courte durée conçue pour ressembler à un mouvement populaire. Trente et un pour cent des 1 239 nouveaux comptes ont cessé de tweeter fin septembre et sont devenus inactifs. Gray a déclaré qu'il ne pouvait pas "confirmer ou déterminer qu'il y a une organisation/un opérateur central derrière tout le comportement". ”