インシデント 117の引用情報

Description: TikTok's "Suggested Accounts" recommendations allegedly reinforced racial bias despite not basing recommendations on race or creators' profile photo.
推定: TikTokが開発し提供したAIシステムで、TikTok users TikTok content creatorsに影響を与えた

インシデントのステータス

インシデントID
117
レポート数
4
インシデント発生日
2020-02-24
エディタ
Sean McGregor, Khoa Lam

インシデントレポート

There’s something strange about TikTok recommendations
vox.com · 2020

When artificial intelligence researcher Marc Faddoul joined TikTok a few days ago, he saw something concerning: When he followed a new account, the profiles recommended by TikTok seemed eerily, physically similar to the profile picture of t…

Tweet: @MarcFaddoul
twitter.com · 2020

A TikTok novelty: FACE-BASED FITLER BUBBLES

The AI-bias techlash seems to have had no impact on newer platforms. Follow a random profile, and TikTok will only recommend people who look almost the same.

Let’s do the experiment from a fresh a…

Is TikTok’s algorithm actually pretty racist?
dailydot.com · 2020

According to an experiment performed by artificial intelligence researcher Marc Faddoul, the algorithm TikTok uses to suggest new users to follow might have a racial bias.

Faddoul, an AI researcher from the University of California, Berkele…

TikTok's Algorithm Shows Unintentional Racial Bias, Researcher Finds
buzzfeednews.com · 2020

A little experiment by an artificial intelligence researcher is raising questions about how TikTok's recommendation algorithm suggests new creators to users.

Specifically, the question is whether that algorithm is sorting suggestions based …

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents