Description: Users selecting “no preference” were shown by Coffee Meets Bagels’s matching algorithm more potential matches with the same ethnicity, which was acknowledged and justified by its founder as a means to maximize connection rate without sufficient user information.
Alleged: Coffee Meets Bagel developed and deployed an AI system, which harmed Coffee Meets Bagel users having no ethnicity preference と Coffee Meets Bagel users.
インシデントのステータス
インシデントID
280
レポート数
2
インシデント発生日
2013-07-30
エディタ
Khoa Lam
インシデントレポート
レポートタイムライン
laweekly.com · 2013
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
I have nothing against Asian guys.
In fact, when my roommate told me the other night that he sometimes sees John Cho (Harold, of Harold and Kumar) at his gym, I squealed. I briefly considered joining the gym, but then I remembered I've Goog…
buzzfeednews.com · 2016
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Yet, it seems like a relatively common experience, even if you aren’t from a minority group.
Amanda Chicago Lewis (who now works at BuzzFeed) wrote about her similar experience on Coffee Meets Bagel for LA Weekly : “I've been on the site fo…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents