Description: Facebook’s automated content moderation was acknowledged by a company spokesperson to have erroneously censored and banned Australian users from posting an article containing a 1890s photo of Aboriginal men in chains over nudity as historical evidence of slavery in Australia.
Entités
Voir toutes les entitésAlleged: Facebook developed and deployed an AI system, which harmed Facebook users sharing photo evidence of slavery et Facebook users.
Statistiques d'incidents
Rapports d'incidents
Chronologie du rapport
unilad.com · 2020
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Facebook a supprimé une photo d'hommes aborigènes utilisée pour prouver le racisme en Australie, après avoir affirmé que la photo incluait de la nudité.
La photo a été partagée en ligne pour prouver que le racisme avait eu lieu en Australie…
techtimes.com · 2020
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Le message a été publié dans le contexte du Premier ministre australien Scott Morrison affirmant qu'il n'y avait pas d'esclavage en Australie. Avant un jour plus tard, il [a reculé](https://www.theguardian.com/australia-news/2020/jun/12/sco…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Amazon Censors Gay Books
· 24 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Amazon Censors Gay Books
· 24 rapports