Incidents associés

Le mercredi 21 octobre 2020, plusieurs contenus contenant des images liées au malheureux incident survenu mardi au péage de Lekki à Lagos, au Nigeria, ont été signalés comme de la désinformation sur Facebook et Instagram.
L'incident choquant qui a impliqué le meurtre d'un nombre non confirmé de manifestants par l'armée a commencé mardi soir. Les victimes étaient des manifestants #EndSARS qui sont restés sur le terrain de protestation après qu'un couvre-feu de 24 heures – qui devait commencer à 21 heures – a été imposé par le gouverneur de l'État de Lagos, Babajide Sanwoolu, pour réprimer les activités des pirates de l'air dans l'État.
Des témoins oculaires ont révélé que des hommes vêtus d'uniformes militaires - supposés être des officiers de l'armée nigériane - se sont approchés et ont tiré dans la foule pendant que les manifestants #EndSARS agitaient le drapeau nigérian et chantaient l'hymne national.
Cet événement macabre, que beaucoup pensent avoir été prémédité en raison des événements précédents - désinstallation de la caméra de vidéosurveillance, extinction du panneau d'affichage et déconnexion des lampadaires menant à l'emplacement - a depuis été étiqueté "fausses nouvelles" par l'armée nigériane.
Malgré cela, l'armée n'a pas encore annoncé quelles sont exactement les "vraies nouvelles" concernant cet événement.
Pendant ce temps, des scènes en direct de victimes par balle luttant pour rester en vie et de corps enveloppés de drapeaux ensanglantés ont été partagées sur Instagram alors qu'elles se déroulaient par un disc-jockey populaire, DJ Switch. Par la suite, des images connexes ont été diffusées sur les plateformes de médias sociaux, mais cela ne semblait pas bien se passer avec la société technologique mondiale Facebook sur ses plateformes.
Sur Instagram et Facebook, des images du personnel du Lekki Concession Center (LCC) qui serait venu désinstaller la caméra de vidéosurveillance de la scène quelques heures avant le triste incident, des manifestants restant ensemble tout en tenant le drapeau nigérian, un drapeau nigérian ensanglanté, ont rapporté des survivants à l'hôpital et les cadavres de la scène sont tous de fausses informations signalées ; suggérant invariablement que l'attaque militaire du 20 octobre était fausse.
Bien que les images ne soient pas totalement supprimées, elles sont devenues blasées avec une mise en garde qui se lit comme suit : "Fausses informations. Les mêmes informations ont été vérifiées dans un autre article par des vérificateurs de faits indépendants.“
Facebook utilise un système hybride de modérateurs humains et d'intelligence artificielle (IA) pour vérifier la désinformation. Il s'associe à des organisations tierces indépendantes certifiées de vérification des faits - plus de 27 partenaires dans 88 pays - pour identifier, examiner et confirmer le contenu potentiellement inexact afin de lutter contre la désinformation virale. Ces contenus sont généralement d'abord signalés comme inexacts par les commentaires des utilisateurs, la technologie de signalisation de Facebook ou les vérificateurs de faits.
Une fois l'inexactitude confirmée, la visibilité de la publication dans les délais est réduite et, si elle doit être vue, elle est étiquetée en fonction de la note des vérificateurs des faits - faux, partiellement faux, altéré, contexte manquant, satire et vrai.
Cependant, les éditeurs peuvent contester une note et demander que la validité du contenu soit revérifiée. Mais les utilisateurs ne peuvent pas contester la note d'un contenu qu'ils n'ont pas créé.
Bien sûr, ces entreprises de vérification des faits ne sont pas exemptes d'accusations de partialité. De plus, Facebook n'a pas encore complètement compris ce que signifient des "informations inexactes". La procédure de vérification des faits est devenue nécessaire après que la plate-forme a été utilisée pour pousser le discours de haine qui a conduit aux massacres de la minorité Rohingya au Myanmar en 2018.
Selon Facebook, les vérificateurs de faits indépendants responsables du Nigeria incluent Africa Check Nigeria, AFP Nigeria et Dubawa. Lorsque Africa Check a rejoint la liste des partenaires en 2018, il avait l'intention de se concentrer sur les faux remèdes, les fausses rumeurs de crime, les systèmes pyramidaux et d'autres types de contenu pouvant entraîner de mauvaises décisions et des dommages physiques.
Ironiquement, l'un des partenaires de Facebook, l'AFP, reconnaît le rapport d'Amnesty International Nigeria sur les meurtres à Lagos.
Il n'est donc pas tout à fait clair comment Facebook est arrivé à la conclusion que le contenu lié à #LekkiMassacre était faux. En fait, alors qu'ils sont signalés sur Facebook et Instagram, YouTube et Twitter semblent les accepter. Twitter a notamment été la principale plate-forme adoptée pour pousser le mouvement #EndSARS, avec la validation du PDG de Twitter, Jack Dorsey.
La désinformation n'est pas nouvelle sur les réseaux sociaux, d'autant plus qu'ils sont désormais en concurrence avec les nouvelles plateformes médiatiques. Il semble que Facebook n'ait pas encore agi sur ce qu'il considère comme de fausses informations. En attendant, il appartient aux utilisateurs de s'appuyer sur des salles de presse de confiance.