インシデント 164の引用情報

Description: After the “News Feed” algorithm had been overhauled to boost engagement between friends and family in early 2018, its heavy weighting of re-shared content was alleged found by company researchers to have pushed content creators to reorient their posts towards outrage and sensationalism, causing a proliferation of misinformation, toxicity, and violent content.
推定: Facebookが開発し提供したAIシステムで、Facebook users Facebook content creatorsに影響を与えた

インシデントのステータス

インシデントID
164
レポート数
1
インシデント発生日
2018-10-01
エディタ
Sean McGregor, Khoa Lam

インシデントレポート

Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead.
wsj.com · 2021

In the fall of 2018, Jonah Peretti, chief executive of online publisher BuzzFeed, emailed a top official at Facebook Inc. The most divisive content that publishers produced was going viral on the platform, he said, creating an incentive to …

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください