インシデントのステータス
CSETv1_Annotator-1 分類法のクラス
分類法の詳細Incident Number
117
インシデントレポート
レポートタイムライン
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
When artificial intelligence researcher Marc Faddoul joined TikTok a few days ago, he saw something concerning: When he followed a new account, the profiles recommended by TikTok seemed eerily, physically similar to the profile picture of t…
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
A TikTok novelty: FACE-BASED FITLER BUBBLES
The AI-bias techlash seems to have had no impact on newer platforms. Follow a random profile, and TikTok will only recommend people who look almost the same.
Let’s do the experiment from a fresh a…
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
According to an experiment performed by artificial intelligence researcher Marc Faddoul, the algorithm TikTok uses to suggest new users to follow might have a racial bias.
Faddoul, an AI researcher from the University of California, Berkele…
- 情報源として元のレポートを表示
- インターネッ トアーカイブでレポートを表示
A little experiment by an artificial intelligence researcher is raising questions about how TikTok's recommendation algorithm suggests new creators to users.
Specifically, the question is whether that algorithm is sorting suggestions based …
バリアント
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents