Incidents associés

** Lorsque l'étudiant universitaire éthiopien Moti Dereje s'est connecté à son compte Facebook fin novembre 2018, il s'attendait à voir les mises à jour habituelles de ses amis et de sa famille. **
Au lieu de cela, le jeune de 19 ans - qui étudiait dans la capitale, Addis-Abeba - a vu un message choquant.
"Alors que je mettais à jour mon fil d'actualités, j'ai vu le cadavre de mon père étendu là", a-t-il déclaré au podcast The Comb de la BBC.
Non seulement M. Moti a été dévasté en voyant une image aussi horrible, mais c'est ainsi qu'il a découvert que son père avait été tué.
"Je me suis en quelque sorte figé à ce moment-là. C'était vraiment choquant pour moi", dit-il.
Alors que l'Éthiopie a connu des troubles politiques dans diverses régions au cours des dernières années, les médias sociaux ont été inondés d'images et de vidéos graphiques, de désinformation et de publications incitant à la violence.
Les militants ont demandé que davantage soit fait pour modérer les plateformes et supprimer ce contenu avant qu'il ne cause du tort.
Pour M. Moti, plutôt que de voir la photo retirée, il a commencé à voir plus de messages montrant la même image.
Son père, un ancien député qui travaillait comme administrateur d'université, a été la cible d'un meurtre politique dans l'ouest d'Oromia.
La région traversait alors une période de troubles avec de fréquents assassinats.
"C'est comme s'ils célébraient sa mort. C'était vraiment douloureux", explique M. Moti.
La BBC a vu 15 de ces messages, que M. Moti dit avoir signalés à Facebook dans l'espoir qu'ils soient supprimés.
Les normes communautaires de Facebook indiquent qu'il supprimera "les vidéos et les photos qui montrent la mort violente d'une personne lorsqu'un membre de la famille demande sa suppression".
Mais pendant plus de quatre ans, et après que M. Moti ait déclaré avoir signalé les messages à plusieurs reprises, ils sont restés en ligne.
Seul un avertissement de contenu graphique a été appliqué à certaines images.
"Parfois, je déprime et je ne peux pas m'empêcher de chercher son nom et de vérifier les messages. Je pense que je suis un peu traumatisé", a déclaré M. Moti.
Lorsque la BBC a approché la société mère de Facebook, Meta, pour obtenir des commentaires, elle a convenu que si les images seules ne violaient pas [sa politique sur le contenu violent et graphique] (https://transparency.fb.com/en-gb/policies/community-standards /violent-graphic-content/), cela supprimerait les publications à la demande d'un membre de la famille.
Tous les messages montrant la photo du père décédé de M. Moti ont maintenant été supprimés.
Il n'y a actuellement aucun m écanisme dans le système de signalement de Facebook permettant aux membres de la famille de faire ces demandes, mais Meta a déclaré à la BBC qu'il testait un nouveau formulaire pour permettre cela.
"Contenu éthiopien ignoré"
L'inquiétude grandit quant au volume de contenus graphiques et de discours de haine partagés sur les réseaux sociaux éthiopiens.
C'était un problème avant 2020, mais lorsque la guerre dans la région du nord du Tigré a éclaté en novembre de cette année-là, la quantité de violence qui a fait son chemin dans les fils d'actualité des gens a considérablement augmenté.
En 2021, le conseil de surveillance de Facebook a recommandé que l'entreprise commande une enquête indépendante spécifiquement pour l'Éthiopie, afin d'examiner comment la plateforme a été utilisée pour diffuser des discours de haine et d'ajouter aux violences.
Cet examen n'a pas été entrepris. La BBC a interrogé Meta à ce sujet, et un porte-parole a souligné une réponse précédente de la société, en disant il évaluerait la faisabilité d'un tel examen - et qu'il avait déjà mené plusieurs formes de diligence raisonnable en matière de droits de l'homme concernant l'Éthiopie.
L'année dernière, il a été annoncé que Meta était poursuivi par deux Éthiopiens qui allèguent que l'algorithme de Facebook a contribué à alimenter la propagation virale de la haine et de la violence.
Meta a répondu en disant qu'il avait beaucoup investi dans la modération et la technologie pour éliminer la haine.
Mais Rehobot Ayalew, un consultant en vérification des faits basé à Addis-Abeba, s'interroge sur les efforts déployés par les entreprises de médias sociaux pour résoudre le problème.
"Je ne pense pas que les plateformes accordent autant d'attention à l'Éthiopie", a-t-elle déclaré à The Comb.
"Je sais que Facebook dit qu'il a des modérateurs qui se concentrent sur l'Éthiopie, qui parlent amharique et tigrinya, mais nous ne savons pas combien. Et ils ne travaillent même pas depuis l'Éthiopie, ils travaillent au Kenya."
L'impact de cela, selon Mme Rehobot, est que le contenu violent reste souvent en ligne beaucoup trop longtemps.
"Il faut généralement beaucoup de temps pour qu'un message toxique soit supprimé", dit-elle.
"La colère attisée"
Mme Rehobot fait référence à une vidéo qui a été largement partagée en mars 2022, dans laquelle un Tigréen a été brûlé vif.
"Tout d'abord, l'intelligence artificielle à elle seule aurait dû le supprimer", explique-t-elle.
"Ensuite, même après avoir été signalé, il aurait dû être retiré rapidement, mais il est resté quelques heures."
Légende,
Une étude universitaire de l'année dernière a estimé que le nombre total de morts civiles au Tigré - causées par les combats, la famine et le manque de soins de santé - se situait entre 385 000 et 600 000.
Un porte-parole de Meta a déclaré à la BBC : "Nous avons des règles strictes qui décrivent ce qui est autorisé et ce qui n'est pas autorisé sur Facebook et Instagram. Les discours de haine et l'incitation à la violence sont contraires à ces règles et nous investissons massivement dans les équipes et la technologie pour nous aider à trouver et supprimer ce contenu.
"Nous employons du personnel possédant des connaissances et une expertise locales, et continuons à développer nos capacités pour détecter les contenus en infraction dans les langues les plus parlées du pays, notamment l'amharique, l'oromo, le somali et le tigrinya."
Une bonne chose peut se produire lorsque l'attention du public est attirée sur des violations odieuses des droits de l'homme, mais un contenu comme celui-ci peut également être utilisé pour attiser la colère et blâmer des groupes ethniques ou des individus spécifiques.
Pendant tout ce temps, les effets traumatisants de la visualisation de tels contenus sont ressentis par des milliers, voire des millions d'Éthiopiens.
En novembre de l'année dernière, un accord de paix a été signé dans le but de mettre fin à la guerre au Tigré et de commencer à remédier à la situation humanitaire désastreuse qu'elle a provoquée.
Les estimations du nombre de personnes tuées se chiffrent à des centaines de milliers, la majorité de ces décès étant causés par la faim et le manque de fournitures médicales à la suite des combats.
Pendant ce temps, les troubles secouent toujours la région d'Oromia, [qui a connu une rébellion croissante] (https://www.bbc.co.uk/news/world-africa-63710783).
Les militants craignent que la réconciliation dans ces affaires ne soit entravée par la violence qui hante les réseaux sociaux.
"Les gens ont tendance à croire [les messages] et à agir en conséquence, de sorte que des images violentes et destructrices généralisées peuvent certainement ralentir le processus de paix et de réconciliation", déclare Mme Rehobot.
Aujourd'hui âgé de 23 ans, M. Moti tente de passer à autre chose, poursuit une carrière de vidéaste et de photographe, et réalise même un documentaire sur sa propre expérience.
"Je pense que c'est le moment de raconter ma propre histoire en essayant de riposter et peut-être que si je réussis, je pourrai peut-être apporter un changement", dit-il.
Mais il dit que la prévalence du contenu graphique le troublera jusqu'à ce qu'il soit maîtrisé.
"Chaque fois que je vois un cadavre posté en ligne ou sur Facebook à cause de la guerre d'Éthiopie, je me sens vraiment attristé. Quelqu'un va ressentir ce que j'ai vécu.
"Ça me tue vraiment."