Incidents associés

Résumé
L'écosystème de soutien à Harakaat al-Shabaab al-Mujahideen (al-Shabaab) et à l'État islamique en Afrique s'étend sur le Web ouvert, les applications de messagerie cryptées, les plates-formes de niche et directement via Facebook, sans être gêné par la modération dans des langues qui ont depuis longtemps fait leurs preuves. problématique pour la plateforme (Image 1). Alors qu'une grande partie de la recherche sur les attentats terroristes en Afrique a porté sur les capacités opérationnelles d'al-Shabaab à frapper en Afrique de l'Est et sur la montée de l'État islamique sur le continent africain, il reste un manque de recherche sur les al-Shabaab et les organisations islamiques. Les machines de propagande numérique de l'État et leurs récits axés sur l'Afrique.
Des chercheurs de l'Institut pour le dialogue stratégique (ISD) ont mené une enquête de deux ans sur l'écosystème des médias en ligne d'al-Shabaab et de l'État islamique, analysant le rôle des médias "indépendants" et leurs intersections avec des centaines de réseaux de profils d'amplificateurs sur Facebook lié à un certain nombre de pages centrales se présentant comme des "médias" ou des "personnalités médiatiques" opérant en somali, en kiswahili et en arabe. Les chercheurs ont découvert que le réseau de soutien à al-Shabaab et à l'État islamique s'étendait sur plusieurs plates-formes, notamment des applications de messagerie décentralisées telles que Element et RocketChat, et des plates-formes de messagerie cryptées telles que Telegram, ainsi que Twitter, YouTube et Facebook.
Une analyse qualitative multiplateforme a montré que l'écosystème de soutien à al-Shabaab et à l'État islamique le plus actif, en réseau et multilingue existait sur Facebook, où les profils et les pages classés comme "médias" partageaient ouvertement du contenu terroriste et évitaient les groupes privés. et profils. Le contenu que les chercheurs de l'ISD ont observé à travers les réseaux est souvent lié à des pages "médias" et "personnalités médiatiques" en somali, kiswahili et arabe, et non seulement viole les directives communautaires de la plateforme, mais indique également des angles morts de modération linguistique qui ont été précédemment documenté par des journalistes ainsi que des dénonciateurs.
Ces lacunes linguistiques continuent de troubler la modération de Facebook, malgré l'investissement accru de l'entreprise dans la modération. En octobre de l'année dernière, des documents internes de Facebook rendus publics pour la première fois indiquaient que la plate-forme était à la traîne dans sa capacité à modérer efficacement les langues dans des pays "à risque" tels que l'Irak, l'Éthiopie, l'Inde et le Pakistan. En Afghanistan, par exemple, les chercheurs de Facebook ont affirmé que la découverte de traductions exactes du pashto et du dari sapait la modération efficace. L'arabe, et ses variantes régionales et dialectes, était une préoccupation similaire pour Facebook. Les recherches de l'ISD ont déjà montré à quel point les conspirations arabes8 et le contenu terroriste ont déconcerté les modérateurs et les efforts de modération. Facebook a tenté d'intensifier la modération de l'arabe, sur la base à la fois des révélations et des indications des documents internes publiés pour améliorer ces efforts dans un certain nombre de langues.
Pourtant, même avec l'examen accru des efforts de modération de la plate-forme dans des langues autres que l'anglais, les recherches de l'ISD indiquent que les lacunes en matière de modération linguistique ne font pas seulement le jeu des gouvernements qui violent les droits de l'homme ou propagent des discours de haine, mais entraînent également effrontément manifestations ouvertes de soutien à des groupes terroristes tels qu'al-Shabaab et l'État islamique (Image 3). Emblématique de ce problème, les chercheurs ont découvert qu'un "média" en langue somalienne avait partagé quatre vidéos officielles d'al-Shabaab via sa page publique au cours d'une période de trois semaines en octobre 2021, recueillant collectivement 53 300 vues et 17 800 partages. Ces vidéos portaient la marque officielle des médias d'al-Shabaab et n'étaient en aucune façon déguisées pour passer les modérateurs, et pourtant ont réussi à rester sur la plateforme pendant des mois. Ce rapport est une tentative de comprendre les lacunes dans la modération et les tactiques pour échapper à la dynamique de modération, ainsi que les réseaux de terroristes soutenant les profils et les pages qui sont au cœur du problème.
Recommandations
Les réseaux de pages et de profils somaliens, kiswahili et arabes sur Facebook soutenant al-Shabaab et l'État islamique sont une étude de cas sur les angles morts de modération de la plateforme dans des langues autres que l'anglais et illustrent à quel point les partisans du terrorisme exploitent ces lacunes ( Illustration 8). Cette question de la parité linguistique dans les efforts de modération n'est pas nouvelle, et en fait, a été un sujet de discussion pendant 5 ans, et a vu les défis devenir plus aigus dans les périodes de conflit et de troubles civils dans des endroits partout dans le monde. Même avec l'utilisation des algorithmes pour éradiquer le contenu terroriste dans d'autres langues, Facebook et d'autres ont également classé par erreur le contenu non terroriste, ce qui indique un autre problème en ce qui concerne les problèmes de modération linguistique. Ce n'est pas seulement Facebook qui est confronté à ce défi, mais toutes les plateformes qui sont actuellement aux prises avec la haine, la polarisation et le terrorisme. Facebook se trouve être parmi les plus grands avec une portée élevée dans certains contextes géographiques, comme le Kenya, la Somalie et les pays voisins d'Afrique de l'Est.
** Les lacunes de modération dans l'identification du contenu terroriste affilié à la principale marque de médias d'al-Shabaab restent intactes sur la plate-forme, parfois pendant des années (Image 9). Améliorer la capacité de l'intelligence artificielle utilisée pour trouver ce contenu entraînerait sans aucun doute la suppression d'une plus grande partie de ce contenu.** Cependant, ce problème ne sera pas résolu uniquement par la technologie et l'amélioration de la formation des modérateurs ou des entités externalisées pour Facebook modéré, se traduira également par la capacité de ce contenu à être signalé et finalement retiré de la plate-forme.