Description: Tweets created by Thoughts, a tweet generation app that leverages OpenAI’s GPT-3, allegedly exhibited toxicity when given prompts related to minority groups.
Alleged: OpenAI developed an AI system deployed by Satria Technologies, which harmed Thoughts users と Twitter Users.
インシデントのステータス
インシデントレポート
レポートタイムライン
twitter.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
#gpt3 is surprising and creative but it’s also unsafe due to harmful biases. Prompted to write tweets from one word - Jews, black, women, holocaust - it came up with these (https://thoughts.sushant-kumar.com). We need more progress on #Resp…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください