Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2966

Incidents associés

Incident 4718 Rapports
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

Loading...
Pourquoi Facebook continue d'échouer en Éthiopie
restofworld.org · 2021

Fin octobre, Dejene Assefa, un militant basé à Addis-Abeba connu pour ses apparitions à la télévision d'État en Éthiopie, a publié un message à ses plus de 120 000 abonnés sur Facebook. Le poste a exhorté ses compatriotes à se soulever à travers le pays et à assassiner des membres de l'ethnie tigréenne. "La guerre est avec ceux avec qui vous avez grandi, votre voisin", a-t-il écrit en amharique, l'une des principales langues d'Éthiopie. "Si vous pouvez débarrasser votre forêt de ces épines... la victoire sera à vous." Le message a été partagé près de 900 fois et a suscité plus de 2 000 réactions. De nombreuses réponses ont fait écho à l'appel à la violence et ont promis de tenir compte des conseils de Dejene.

L'armée fédérale éthiopienne est actuellement engagée dans une guerre civile brutale avec des groupes rebelles, principalement de la région du Tigré. À Addis-Abeba, la police aurait mené des raids dans toute la ville – traînant des personnes identifiées comme ayant une ascendance tigréenne hors des maisons, des entreprises et même des églises. Sur Facebook, les appels au meurtre et à l'internement massif des Tigréens de souche se sont multipliés.

"Le contenu est l'un des plus terrifiants que j'ai jamais vus", a déclaré Timnit Gebru, ancien scientifique des données de Google et expert de premier plan sur les biais en matière d'IA, qui parle couramment l'amharique. _ "C'était littéralement un appel clair et urgent au génocide. Cela rappelle ce qu'on a vu sur Radio Mille Collines au Rwanda. La Radio Télévision Libre des Mille Collines, une station créée par des extrémistes hutus au Rwanda, a diffusé des appels à la violence qui ont contribué à déclencher le génocide dans le pays en 1994.

Facebook connaît les risques de désinformation et de discours de haine en Éthiopie, et il sait qu'il ne maîtrise pas les contenus dangereux. Dans des messages et des documents internes, publiés dans le cadre des soi-disant fuites de Facebook Papers et vus par Rest of World, la société a reconnu en 2020 qu'elle ne disposait pas de capacités de modération suffisantes en amharique et que les barrières linguistiques avaient empêché les utilisateurs de signaler des contenus problématiques. Pour tenter de combler le vide dans sa compréhension du contexte en Éthiopie, la société a proposé d'utiliser des « modèles basés sur le réseau », un mécanisme opaque, basé sur les données et expérimental.

La récente recrudescence des discours de haine sur Facebook en Éthiopie, liés à la violence, montre que l'entreprise n'a toujours pas résolu ses problèmes dans le pays, après un an de guerre civile qui a divisé le pays selon des critères ethniques.

"Ce que j'ai vu était choquant. Ce n'était pas une personne au hasard avec 10, 100 ou 1 000 abonnés. C'était un groupe de dirigeants, avec des centaines de milliers d'adeptes, indiquant clairement aux gens quoi faire », a déclaré Gebru. "La partie la plus choquante était l'urgence et la manière horrible dont les mots étaient conçus pour inciter les gens à agir maintenant."

La guerre civile en Éthiopie a éclaté fin 2020, lorsque le Premier ministre du pays, Abiy Ahmed, a envoyé des troupes dans la région du Tigré, dans le nord du pays, pour évincer les combattants qui avaient attaqué des bases militaires fédérales. Au début, les forces du gouvernement fédéral, qui ont finalement été soutenues par des soldats de l'Érythrée voisine, semblaient avoir le dessus, mais elles ont depuis été repoussées par une contre-attaque soutenue. Des groupes de défense des droits de l'homme ont documenté des atrocités des deux côtés, mais un rapport conjoint du Haut-Commissariat des Nations Unies pour les réfugiés a révélé des abus commis par les forces gouvernementales, notamment des massacres de Tigréens de souche et le viol armé de ce qui pourrait représenter des milliers de femmes. Le gouvernement américain envisage de déclarer la campagne comme un génocide.

En Éthiopie, où des journalistes ont été emprisonnés et où les médias d'État censurent toutes les informations sur les abus commis par l'État et les forces alliées, la réponse du gouvernement a été étayée par [une armée d'activistes et de personnalités des médias sociaux](https://www.amnesty.org /en/latest/news/2021/11/ethiopie-sweeping-emergency-powers-and-alarming-rise-in-line-haine-speech-as-tigray-conflict-escalates/), qui fabriquent le consentement pour la conduite de ses forces. Plusieurs ont de nombreux abonnés sur Facebook, qui compte plus de 6 millions d'utilisateurs dans le pays. Ces récits ont souvent pointé du doigt des journalistes, des militants des droits humains et toute personne critique à l'égard de l'armée éthiopienne, les qualifiant de « traîtres ».

Le langage déshumanisant ciblant les minorités ethniques s'est normalisé. En juillet, alors que la marée de la guerre changeait, un Abiy Ahmed frustré a lancé une tirade sur Facebook, jurant d'écraser les rebelles "cancéreux" qu'il a également décrits comme "mauvaises herbes". Les comptes Facebook soutenus par le gouvernement éthiopien ont commencé à utiliser ces termes pour désigner vaguement l'ensemble de la population ethnique tigréenne.

La rhétorique en ligne n'était pas seulement le reflet de l'environnement politique du pays, mais a probablement contribué activement à l'aggravation de la violence.

Les documents internes de Facebook montrent que cette année, il a identifié au moins deux campagnes de groupes de la diaspora, l'une principalement basée en Égypte, l'autre en partie basée au Soudan, qui auraient tenté d'attiser les divisions ethniques. L'un était affilié à la milice Fano, accusée d'atteintes aux droits humains, l'autre à un groupe oromo qui appelait à la violence contre l'État. Les militants oromo sont également en guerre contre le gouvernement fédéral.

"Le contenu sur Facebook a eu des impacts réels sur les civils", a déclaré Yohannes Ayalew, ancien maître de conférences en droit à l'Université Bahir Dar en Éthiopie, maintenant doctorant à l'Université Monash en Australie. dans un discours de haine et appelle à la "vengeance" sur Facebook, après le meurtre du chanteur et activiste éthiopien Hachalu Hundessa, en juin 2020. Cela a conduit à une vague de [violence populaire brutale](https://mg.co.za/ africa/2020-07-14-my-son-died-the-worst-kind-of-ath-horrific-details-of-violent-unrest-in-ethiopia/), dans laquelle des centaines de civils et membres de l'ethnie amhara d'autres minorités de la région d'Oromia en Éthiopie ont été assassinées.

"Le contenu sur Facebook a eu des impacts réels sur les civils."

Lors d'un témoignage devant un sous-comité du Sénat américain en octobre, Frances Haugen, dénonciatrice de Facebook, a déclaré que les échecs de l'entreprise en Éthiopie pourraient correspondre à ceux du Myanmar, où des responsables de l'ONU ont affirmé que l'entreprise avait joué un [rôle important dans la facilitation de la violence génocidaire](https://www .reuters.com/article/us-myanmar-rohingya-facebook-idUSKCN1GO2PN).

Des documents internes montrent les raisons de l'échec de l'entreprise. Facebook savait qu'il n'avait pas une couverture suffisante dans les langues locales pour identifier activement les discours de haine ou les appels à la violence. Il a également collecté un faible nombre de rapports d'utilisateurs pour l'aider à identifier le contenu problématique, qu'il a attribué à la littératie numérique, ses interfaces de signalement déroutantes pour les utilisateurs éthiopiens et un manque de prise en charge de la langue locale.

En juin 2020, les employés examinant les "signaux" de la plate-forme - les données, collectées auprès des utilisateurs et des partenaires, qu'elle utilise pour comprendre le contenu problématique - ont déclaré avoir trouvé des "lacunes importantes" dans les pays les plus à risque, en particulier au Myanmar et en Éthiopie. , "montrant que nos signaux actuels peuvent être inadéquats." Un rapport publié cet automne a révélé que même parmi les pays à risque de «niveau 1», l'Éthiopie était une exception, avec le «taux d'achèvement le plus bas» pour les rapports des utilisateurs.

Les articles contiennent plusieurs références à la faiblesse des signaux de Facebook dans les "ARC" - les pays à risque.

Conscient de sa faible couverture en Éthiopie, Facebook a proposé d'utiliser une approche différente pour résoudre son problème : la modération basée sur le réseau. La société a commencé à investir sérieusement dans cette approche après l'élection présidentielle américaine de 2016, en réponse aux allégations d'ingérence russe utilisant sa plate-forme, a déclaré Evelyn Douek, chargée de cours à la Harvard Law School et experte en modération des médias sociaux. . Plutôt que d'utiliser des mots ou des phrases spécifiques pour identifier directement le discours de haine ou la désinformation, la modération basée sur le réseau est basée sur l'identification de modèles de comportement compatibles avec une activité malveillante.

"Vous pouvez comprendre pourquoi ils pourraient le faire dans des pays où ils n'ont pas la capacité linguistique, car cela ne repose pas sur la compréhension du contenu des messages individuels", a déclaré Douek.

Cependant, Douek a déclaré qu'il s'agissait "d'une forme particulièrement opaque de modération de contenu", et sur laquelle la société a publié peu de détails. Cette forme de modération s'appuie sur les propres recherches et données de la plateforme, qu'elle partage rarement avec des chercheurs externes, et sur ses propres modèles.

Les documents publiés dans le cadre des Facebook Papers montrent que cette approche est encore expérimentale et qu'il n'est pas clair si ses modèles fonctionnent dans le contexte du discours de haine - même aux États-Unis, où il est basé et où il a le plus grand volume de données. "Les réseaux entourant la haine organisée sont un autre exemple clair de réseaux nuisibles que nos politiques et procédures actuelles ne peuvent pas gérer", un document interne, examinant les réseaux qui partagent et stimulent certains contenus, y compris celui des suprémacistes blancs aux États-Unis, lit. D'autres documents évoquent la complexité de la cartographie des effets de réseau, et jusqu'où l'entreprise doit aller pour les comprendre. Même ainsi, le personnel semble désireux d'essayer ces modèles en Éthiopie et au Myanmar, "où nos signaux de classification et de langue sont plus faibles, et où les modèles basés sur le réseau peuvent être les plus utiles".

Un porte-parole de Meta, la société holding récemment renommée qui possède Facebook, a déclaré dans un communiqué : "Pour l'instant, nous n'avons pas utilisé ce nouveau protocole pour perturber les réseaux en Éthiopie".

Douek a fait écho à d'autres chercheurs, affirmant que même si la modération basée sur le réseau fait ce qu'elle est censée faire, il est très peu probable qu'elle soit suffisante à elle seule. "Vous ne pouvez pas entrer sur un marché sans la compréhension de la langue ou la compréhension contextuelle ou l'expertise politique et vous attendre à ce que ce type de modération soit suffisant ou prévienne les dommages", a-t-elle déclaré. "Ce n'est tout simplement pas suffisant."

Dans un document divulgué, le personnel de Facebook a déclaré qu'une fois que l'entreprise a identifié un pays vulnérable, soit en raison d'un pic de discours problématiques signalés, soit en raison d'un conflit actif là-bas, la mise en œuvre de l'application peut prendre jusqu'à un an.

La réalité est peut-être plus longue. L'entreprise a reconnu ses problèmes en Éthiopie dès 2019, mais en mai 2021, dans une conversation sur la mesure de la prévalence du discours de haine à l'approche des élections en Éthiopie, un employé a écrit : « Nous n'avons pas de couverture pour l'Éthiopie. en raison du manque de capacité d'examen humain là-bas.

Les analystes ont déclaré que l'entreprise n'était clairement pas prête pour la dernière vague de haine et d'appels à la violence. Les accusations de « trahison » contre les Tigréens de souche sont devenues monnaie courante ces derniers mois. En août, Muktar Ousman, qui compte plus de 210 000 abonnés sur Facebook, a affirmé exactement cela ; deux mois plus tard, deux professeurs d'université ethniquement tigréens ont été assassinés, des actes que Muktar a célébrés dans des publications sur Facebook et Twitter, où il compte 168 000 abonnés.

La violence s'est propagée au-delà des communautés tigréennes. Une autre minorité ethnique, les Qemant, a été attaquée par les forces gouvernementales et les milices alliées. Des milliers de civils Qemant ont fui leur foyer pour la sécurité du Soudan voisin cette année.

Plus tard en septembre, une publication sur Facebook alléguait, sans preuve, que des terroristes d'un village de Qemant avaient détourné un bus, un prétendu incident au cours duquel deux personnes avaient été tuées. Le message a suscité des centaines de réactions. Le lendemain, le village a été [pillé et incendié](https://www.aljazeera.com/news/2021/10/6/finish-us-off-ethiopia-qemant-say-under-fire-in- campagne armée), une attaque qui a duré plusieurs jours.

Entre fin octobre et début novembre, les combattants tigréens ont réalisé leurs gains les plus importants de la guerre, capturant les villes de Dessie et Kombolcha, à environ 400 kilomètres de la capitale éthiopienne Addis-Abeba. La perte de deux villes stratégiques situées sur les autoroutes reliant le pays à Djibouti voisin a entraîné une nouvelle escalade de la rhétorique violente et sectaire sur Facebook. Des comptes Facebook affiliés au gouvernement éthiopien ont accusé les habitants tigréens locaux des deux villes d'agir comme des espions pour les rebelles.

"Alors que le travail de sécurité en Éthiopie dure depuis longtemps, nous savons que les risques sur le terrain en ce moment sont plus élevés", a déclaré Mercy Ndegwa, directrice des politiques publiques pour l'Est et la Corne de l'Afrique chez Meta, dans un communiqué envoyé à Reste du monde. "Nous... nous tenons prêts à prendre des mesures supplémentaires pour répondre aux exigences de cette situation actuelle des droits de l'homme."

Facebook a déclaré avoir récemment désigné l'Éthiopie comme un "lieu temporaire à haut risque" et a promis de supprimer les publications faisant la promotion de la violence et de la désinformation. Il a déclaré avoir ajouté l'Armée de libération d'Oromo, un groupe rebelle armé, à une liste d'entités inscrites sur la liste noire.

En octobre, le chercheur Gebru est allé sur Twitter pour s'alarmer de la tirade d'Assefa et l'a signalée à Facebook. Il a fallu près de 24 heures avant que le poste ne soit supprimé. On ne sait pas pour quelles raisons il a été supprimé, et Gebru a déclaré qu'on lui avait initialement dit que le message ne violait pas les normes communautaires du site. Le contenu a été largement partagé et peut encore être trouvé, mot pour mot, sur les pages d'autres partisans du gouvernement.

Début novembre, Facebook a supprimé un message du Premier ministre Abiy Ahmed, dans lequel il appelait les citoyens à se lever et à « enterrer » les rebelles, pour avoir enfreint les règles de Facebook sur l'incitation à la violence. C'était une intervention importante, ont déclaré les analystes, mais un jour après que le poste d'Abiy a été supprimé, le maire d'Addis-Abeba, Adanech Abiebie [est allé sur Facebook] (https://www.facebook.com/OfficialAdanechAbiebie/posts/404214541247386) pour applaudir les volontaires. menant des recherches de quartier dans toute la ville pour trouver des sympathisants rebelles et a ajouté : "Sans aucun doute, la junte [un terme utilisé pour désigner les rebelles tigréens] sera enterrée partout où ils errent !" Ce message n'a pas encore été supprimé de la plateforme.

"Il me semble que ce que fait Facebook n'est qu'un éloge pour ses critiques explosives dans tous les coins", a déclaré Ayalew, de l'Université Monash.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd