Description: YouTube's recommendation algorithm has allegedly been directing teen users to harmful content promoting eating disorders and self-harm, according to a study by the Center for Countering Digital Hate. Almost 70% of the recommended videos in searches related to dieting or weight loss reportedly contained content likely to exacerbate body image anxieties.
Editor Notes: The full Center for Countering Digital Hate report is accessible at https://counterhate.com/wp-content/uploads/2024/12/CCDH.YoutubeED.Nov24.Report_FINAL.pdf.
Alleged: YouTube と Google developed and deployed an AI system, which harmed Adolescent girls と YouTube users.
AI関連システム: YouTube
インシデントのステータス
インシデントID
873
レポート数
1
インシデント発生日
2024-12-10
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
cbsnews.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
アンナ・モッケルは14歳で、突然ダイエットに夢中になった。2020年の春、彼女はちょうどリモートで8年生を卒業したばかりだった。 秋に高校に進学することを心配しながら家に閉じこもり、コロナ禍の夏、彼女はソーシャルメディアアプリを行き来しながら数え切れないほどの時間を犠牲にした。
アンナはYouTubeで「特に何かを検索しているわけではなく」、フィードに表示されるものを見ているだけだった。少し年上でいつも痩せている女の子が登場する動画を見たときに、考えが渦巻き始めたことを彼女は覚…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細に ついてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents