インシデント 278の引用情報

Description: The publicly launched conversational AI demo BlenderBot 3 developed by Meta was reported by its users and acknowledged by its developers to have “occasionally” made offensive and inconsistent remarks such as invoking Jewish stereotypes.
推定: Metaが開発し提供したAIシステムで、Jewish people BlenderBot 3 usersに影響を与えた

インシデントのステータス

インシデントID
278
レポート数
3
インシデント発生日
2022-08-07
エディタ
Khoa Lam
Tweet: @JeffHorwitz
twitter.com · 2022

Good morning to everyone, especially the Facebook Blender.ai researchers who are going to have to rein in their Facebook-hating, election denying chatbot today

It is also attempting to steer the conversation to how Modi is the world’s great…

Meta asked users to test its A.I. chatbot. Turns out it’s not sure that Biden won in 2020 and deals in Jewish stereotypes
fortune.com · 2022

Meta’s new A.I. chatbot was launched last week to the public, but it has already displayed signs of anti-Semitic sentiments and appears to be unsure as to whether Joe Biden is the President of the United States. 

On Friday, Meta launched Bl…

‘It is painful to see some of these offensive responses’—Meta defends its occasionally anti–Semitic BlenderBot 3 chatbot
fortune.com · 2022

Hi there—David Meyer here in Berlin, filling in for Jeremy this week.

Meta, Facebook’s parent company, has defended its decision to launch a public demonstration of its new BlenderBot 3 chatbot, which got offensive pretty much as soon as it…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents