Description: Facebook's ad moderation system involving algorithms failed to flag hateful language and violating content such as calls for killings for ads in English and Swahili.
推定: Facebookが開発し提供したAIシステムで、Facebook users speaking Swahili , Facebook users speaking English と Facebook usersに影響を与えた
インシデントのステータス
インシデントレポート
レポートタイムライン
apnews.com · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Facebook is letting violent hate speech slip through its controls in Kenya as it has in other countries, according to a new report from the nonprofit groups Global Witness and Foxglove.
It is the third such test of Facebook’s ability to det…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents