Journal des citations pour l'incident 82

Description: Facebook incorrectly labels content relating to an incident between #EndSARS protestors and the Nigerian army as misinformation.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Facebook, endommagé Facebook users and Facebook users interested in the Lekki Massacre incident.

Statistiques d'incidents

ID
82
Nombre de rapports
1
Date de l'incident
2020-10-21
Editeurs
Sean McGregor, Khoa Lam

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

In October 2020, Facebook incorrectly labelled content from the #LekkiMassacre2020 incident as false. The incident consisted of an interaction #EndSARS protestors and the Nigerian army at the Lekki toll gate in Lagos, Nigeria. Images and videos posted on social media related to the event were marked as false by Facebook's fact-checking system, which is a hybrid system of human moderators, third-party fact checking organizations, and AI.

Short Description

Facebook incorrectly labels content relating to an incident between #EndSARS protestors and the Nigerian army as misinformation.

Severity

Moderate

Harm Type

Harm to social or political systems, Harm to civil liberties

AI System Description

Facebook's content moderation system consists of a hybrid system of AI and human moderators. The AI assists in dectecting hate speech, prioritizing, the queue to help moderators deal with sensitive content more quickly and detecting similar content to mark as containing 'false information'

System Developer

Facebook

Sector of Deployment

Information and communication

Relevant AI functions

Perception, Cognition, Action

AI Techniques

machine learning, supervised learning, open-source

AI Applications

content moderation, recommendation engine

Location

Lagos, Nigeria

Named Entities

Facebook, #EndSARS, Nigerian Army, Nigeria

Technology Purveyor

Facebook

Beginning Date

2020-10-21T07:00:00.000Z

Ending Date

2020-10-21T07:00:00.000Z

Near Miss

Unclear/unknown

Intent

Accident

Lives Lost

No

Data Inputs

user content (textposts, images, videos)

#LekkiMassacre : pourquoi Facebook a qualifié le contenu de l'incident du 20 octobre de "faux"
techpoint.africa · 2020

Le mercredi 21 octobre 2020, plusieurs contenus contenant des images liées au malheureux incident survenu mardi au péage de Lekki à Lagos, au Nigeria, ont été signalés comme de la désinformation sur Facebook et Instagram.

L'incident choquan…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.