Description: Facebook's system involving algorithmic content moderation for East African languages was reportedly failing to identify violating content on the platform such as mistakenly classifying non-terrorist content.
Alleged: Facebook developed and deployed an AI system, which harmed Facebook users speaking East African languages と Facebook users in East Africa.
インシデントのステータス
インシデントID
392
レポート数
2
インシデント発生日
2015-06-01
エディタ
Khoa Lam
インシデントレポート
レポートタイムライン
isdglobal.org · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Executive Summary
The ecosystem of support for Harakaat al-Shabaab al-Mujahideen (al-Shabaab) and the Islamic State in Africa runs across the open web, encrypted messaging applications, niche platforms, and straight through Facebook, unboth…
apnews.com · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
NAIROBI, Kenya (AP) — A new study has found that Facebook has failed to catch Islamic State group and al-Shabab extremist content in posts aimed at East Africa as the region remains under threat from violent attacks and Kenya prepares to vo…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください