Incidents associés

Depuis des mois, le siège social de Facebook à Menlo Park, en Californie, est en mode crise, tentant furieusement de contenir les dégâts résultant de son rôle dans la campagne présidentielle de l'année dernière. La société a monté une campagne de défense tous azimuts avant [les audiences du Congrès de cette semaine sur l'ingérence électorale](https://www.nytimes.com/2017/10/20/technology/meet-the-men-who-will- defend-google-facebook-and-twitter-before-lawmakers.html) en 2016, l'embauche de trois entreprises de communication externes, la publication [d'annonces pleine page dans les journaux](http://fortune.com/2017/10/04/facebook -full-page-ad-new-york-times/), et en mobilisant de hauts dirigeants, dont Mark Zuckerberg et Sheryl Sandberg, pour repousser les accusations selon lesquelles il n'a pas empêché la Russie de manipuler le résultat des élections.
Aucune autre situation difficile dans les 13 ans d'histoire de Facebook n'a généré ce type de réponse à quatre alarmes. Mais si l'accent mis sur la Russie est compréhensible, Facebook s'est beaucoup moins prononcé sur l'abus de ses services dans d'autres parties du monde, où les enjeux peuvent être bien plus importants qu'une élection.
La semaine dernière, mes collègues du Times ont rapporté sur le nettoyage des musulmans Rohingyas, une minorité ethnique du Myanmar qui a été soumise à des violences brutales et à des déplacements massifs. La violence contre les Rohingyas a été alimentée, en partie, par la désinformation et la propagande anti-Rohingya diffusées sur Facebook, qui est utilisé comme principale source d'information par de nombreuses personnes dans le pays. Des photos trafiquées et des rumeurs infondées sont [devenues virales](https://www.buzzfeed.com/meghara/how-fake-news-and-online-hate-are-making-life-hell-for?utm_term=.shpWBL5O7# .wlGyPB4gk) sur Facebook, dont beaucoup sont partagés par des comptes officiels gouvernementaux et militaires.
La guerre de l'information au Myanmar met en lumière un problème croissant pour Facebook. L'entreprise a réussi à connecter le monde à une constellation d'outils de communication et de diffusion en temps réel, puis l'a largement laissé faire face aux conséquences.
"Dans beaucoup de ces pays, Facebook est la place publique de facto", a déclaré Cynthia Wong, chercheuse senior sur Internet pour Human Rights Watch. « À cause de cela, cela soulève de très fortes questions sur le fait que Facebook doit assumer davantage de responsabilités pour les dommages auxquels sa plate-forme a contribué. »
Au Myanmar, la montée du sentiment anti-Rohingya a coïncidé avec un énorme boom de l'utilisation des médias sociaux qui était en partie attribuable à Facebook lui-même. En 2016, la société s'est associée avec MPT, la société de télécommunications publique, pour donner accès aux abonnés à son programme Free Basics. Free Basics comprend une suite limitée de services Internet, y compris Facebook, qui peuvent être utilisés sans compter pour un forfait de données de téléphone portable. En conséquence, le nombre d'utilisateurs de Facebook au Myanmar a grimpé en flèche pour atteindre plus de 30 millions aujourd'hui, contre 2 millions en 2014.
"Nous travaillons dur pour éduquer les gens sur nos services, mettre en évidence les outils pour les aider à protéger leurs comptes et promouvoir la littératie numérique", a déclaré Debbie Frost, une porte-parole de Facebook. "Pour être plus efficaces dans ces efforts, nous travaillons avec la société civile, les partenaires de sécurité et les gouvernements - une approche que nous avons jugée particulièrement importante et efficace dans les pays où les gens se connectent rapidement et découvrent Internet pour la première fois via un téléphone portable."
En Inde, où l'utilisation d'Internet a également augmenté ces dernières années, WhatsApp, l'application de messagerie populaire appartenant à Facebook, a été [inondée de rumeurs, de canulars et de fausses histoires](https://www.washingtonpost.com/world/asia_pacific/ des-millions-de-nouveaux-internautes-en-inde-craignent-les-fausses-nouvelles-parfois-avec-des-conséquences-mortelles/2017/10/01/f078eaee-9f7f-11e7-8ed4-a750b67c552b_story.html?utm_term= .d2317b71eac3). En mai, la région de Jharkhand, dans l'est de l'Inde, a été déstabilisée par un message viral sur WhatsApp qui affirmait à tort que des gangs de la région enlevaient des enfants. Le message a provoqué une panique généralisée et a conduit à une série de lynchages en représailles, au cours desquels au moins sept personnes ont été battues à mort. Un cinéaste local, Vinay Purty, a déclaré au [Hindustan Times](http://www.hindustantimes.com/india-news/a-whatsapp-message-claimed-nine-lives-in-jharkhand-in-a-week/ story-xZsIlwFawf82o5WTs8nhVL.html) que de nombreux villageois locaux croyaient simplement que le mythe de l'enlèvement était réel, car il provenait de WhatsApp.
"Tout ce qui est partagé au téléphone est considéré comme vrai", a déclaré M. Purty.
Dans un communiqué, WhatsApp a déclaré : "WhatsApp a rendu les communications moins chères, plus faciles et plus fiables pour des millions d'Indiens - avec tous les avantages que cela apporte. Bien que nous comprenions que certaines personnes, malheureusement, ont utilisé WhatsApp pour intimider les autres et diffuser des informations erronées. C'est pourquoi nous encourageons les gens à signaler les messages problématiques à WhatsApp afin que nous puissions agir.
Facebook n'est pas directement responsable des conflits violents, bien sûr, et la désinformation virale n'est pas propre à ses services. Avant les médias sociaux, il y avait des canulars par e-mail et des légendes urbaines transmises de personne à personne. Mais la vitesse de croissance de Facebook dans le monde en développement en a fait une force particulièrement puissante parmi les nouveaux utilisateurs d'Internet, qui ne sont peut-être pas suffisamment sceptiques quant à ce qu'ils voient en ligne.
La société a fait de nombreuses tentatives pour éduquer les utilisateurs sur les dangers de la désinformation. En Inde et en Malaisie, il a sorti des publicités dans les journaux avec des conseils pour avoir repéré de fausses nouvelles. Au Myanmar, il s'est associé à des organisations locales pour distribuer des copies imprimées de ses normes communautaires, ainsi que pour créer du [matériel pédagogique](https://www.facebook.com/fbsafety/photos/a.197686146935898.42079.125459124158601/912369255467580/? type=3&theatre) pour apprendre aux citoyens à se comporter correctement en ligne.
Mais ces efforts, aussi bien intentionnés soient-ils, n'ont pas arrêté la violence, et Facebook ne semble pas en avoir fait une priorité absolue. La soci été n'a pas de bureau au Myanmar et ni M. Zuckerberg ni Mme Sandberg n'ont fait de déclarations publiques sur la crise des Rohingyas.
Corriger la désinformation est un problème philosophique épineux pour Facebook, qui s'imagine comme une plateforme neutre qui évite prendre des décisions éditoriales. Les normes communautaires de Facebook interdisent les discours de haine et les menaces, mais de nombreux messages viraux nuisibles - comme un fil WhatsApp dans le sud de l'Inde qui [répandre de fausses rumeurs](https://scroll.in/pulse/830129/rumours-about-measles-rubella- vaccin-hit-coverage) sur une campagne de vaccination gouvernementale - ne sont ni haineux ni directement menaçants, et ils ne seraient pas interdits selon les normes communautaires de Facebook tant qu'ils proviennent de comptes authentiques. La lutte contre la désinformation est particulièrement difficile sur WhatsApp, une application de messagerie privée, car il n'y a pas de piste d'information publique pour vérifier les faits.
Facebook a fait valoir que les avantages de fournir un accès Internet aux utilisateurs internationaux finiront par l'emporter sur les coûts. Adam Mosseri, un vice-président de Facebook qui supervise le fil d'actualité, a déclaré à un rassemblement de journalistes ce mois-ci, "En fin de compte, je ne pense pas que nous, en tant que race humaine, regretterons Internet." M. Zuckerberg a fait écho à ce sentiment dans un manifeste de 2013 intitulé "La connectivité est-elle un droit humain ?" dans lequel il a déclaré que mettre la population mondiale en ligne serait les choses les plus importantes que nous faisons tous dans notre vie.
Cet optimisme peut être une piètre consolation pour les habitants d'endroits comme le Soudan du Sud. Bien qu'il soit l'un des pays les plus pauvres et les moins câblés au monde, avec seulement environ 20% de ses citoyens connectés à Internet, la nation africaine est devenue un foyer de désinformation sur les réseaux sociaux. Comme [BuzzFeed News l'a rapporté](https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.qjlvXQ74B#. bnV6XO9a0), des agents politiques à l'intérieur et à l'extérieur du pays ont utilisé des publications sur Facebook pour répandre des rumeurs et inciter à la colère entre factions rivales, favorisant la violence qui menace de dégénérer en guerre civile. Un [rapport] des Nations Unies (http://www.securitycouncilreport.org/atf/cf/%7B65BFCF9B-6D27-4E9C-8CD3-CF6E4FF96FF9%7D/s_2016_963.pdf) a déterminé l'année dernière qu'au Soudan du Sud, "les médias sociaux ont été utilisé par des partisans de tous bords, y compris certains hauts responsables du gouvernement, pour exagérer les incidents, répandre des mensonges et des menaces voilées, ou publier des messages d'incitation catégoriques.
Ce sont des problèmes incroyablement complexes, et il peut être impossible pour Facebook – qui est, rappelez-vous, une entreprise technologique, et non une force mondiale de maintien de la paix – de les résoudre du jour au lendemain. Mais comme la réponse de l'entreprise à la crise russe l'a prouvé, elle est capable d'agir rapidement et puissamment lorsqu'elle sent ses intérêts menacés.
Les guerres de l'information dans les marchés émergents ne représentent peut-être pas une menace aussi importante pour les activités de Facebook que les législateurs en colère à Washington. Mais les gens meurent et les communautés se déchirent avec les outils que Facebook a construits. Cela devrait être considéré comme une urgence encore plus grande à Menlo Park.
Une correction a été apportée le 31 octobre 2017 : un article publié lundi sur les abus des services de Facebook dans divers pays rendait incorrect le nom d'une entreprise de télécommunications gérée par le gouvernement au Myanmar. C'est MPT, pas MTP.