インシデント 393の引用情報

Description: Facebook's ad moderation system involving algorithms failed to flag hateful language and violating content such as calls for killings for ads in English and Swahili.
推定: Facebookが開発し提供したAIシステムで、Facebook users speaking Swahili , Facebook users speaking English Facebook usersに影響を与えた

インシデントのステータス

インシデントID
393
レポート数
1
インシデント発生日
2021-12-08
エディタ
Khoa Lam

インシデントレポート

レポートタイムライン

In a 3rd test, Facebook still fails to block hate speech
apnews.com · 2022

Facebook is letting violent hate speech slip through its controls in Kenya as it has in other countries, according to a new report from the nonprofit groups Global Witness and Foxglove.

It is the third such test of Facebook’s ability to det…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents