インシデント 197の引用情報

Description: Facebook's internal report showed an at-least six-month long alleged software bug that caused moderator-flagged posts and other harmful content to evade down-ranking filters, leading to surges of misinformation on users' News Feed.
推定: Facebookが開発し提供したAIシステムで、Facebook usersに影響を与えた

インシデントのステータス

インシデントID
197
レポート数
4
インシデント発生日
2021-10-01
エディタ
Sean McGregor, Khoa Lam

インシデントレポート

レポートタイムライン

Facebook boosted harmful posts due to 'massive ranking failure' bug
protocol.com · 2022

For the last six months, Facebook engineers have been seeing intermittent spikes in misinformation and other harmful content on News Feed, with posts that would usually be demoted by the company's algorithms being boosted by as much as 30% …

A Facebook bug led to increased views of harmful content over six months
theverge.com · 2022

A group of Facebook engineers identified a “massive ranking failure” that exposed as much as half of all News Feed views to potential “integrity risks” over the past six months, according to an internal report on the incident obtained by Th…

Facebook system designed to smother harmful misinformation actually spread it
thedrum.com · 2022

Facebook engineers have belatedly uncovered a significant flaw in its downranking system to filter out harmful content, which exposed up to half of all News Feed views to potential ’integrity risks’ for six months.

Reports in The Verge sugg…

Meta admits Facebook bug led to a 'surge of misinformation'
dailymail.co.uk · 2022

Meta has admitted that a Facebook bug led to a 'surge of misinformation' and other harmful content appearing in users' News Feeds between October and March.

According to an internal document, engineers at Mark Zuckerberg's firm failed to su…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください