Journal des citations pour l'incident 163

Description: Facebook’s hate-speech detection algorithms was found by company researchers to have under-reported less common but more harmful content that was more often experienced by minority groups such as Black, Muslim, LGBTQ, and Jewish users.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Facebook, endommagé Facebook users of minority groups and Facebook users.

Statistiques d'incidents

ID
163
Nombre de rapports
2
Date de l'incident
2021-11-21
Editeurs
Sean McGregor, Khoa Lam
Comment Facebook cache à quel point c'est terrible avec le discours de haine
wired.com · 2021

En public, Facebook semble affirmer qu'il supprime plus de 90% des discours de haine sur sa plate-forme, mais dans les communications internes privées, l'entreprise affirme que le chiffre n'est que de 3 à 5%. Facebook veut nous faire croire…

Les pratiques aveugles de Facebook autour du discours de haine se sont faites aux dépens des utilisateurs noirs, selon de nouveaux documents
washingtonpost.com · 2021

L'année dernière, des chercheurs de Facebook ont montré aux dirigeants un exemple du type de discours de haine circulant sur le réseau social : un message réel présentant une image de quatre législatrices démocrates connues collectivement s…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.