Description: Philosopher AI as built on top of GPT-3 was reported by its users for having strong tendencies to produce offensive results when given prompts on certain topics such as feminism and Ethiopia.
Alleged: Murat Ayfer と OpenAI developed an AI system deployed by Murat Ayfer, which harmed historically disadvantaged groups.
インシデントのステータス
インシデントID
356
レポート数
2
インシデント発生日
2020-09-15
エディタ
Khoa Lam
インシデントレポート
レポートタイムライン
twitter.com · 2020
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Every tech-evangelist: #GPT3 provides deep nuanced viewpoint
Me: GPT-3, generate a philosophical text about Ethiopia
GPT-3 spits out factually wrong and grossly racist text that portrays a tired and cliched Western perception of Ethiopia
(h…
spectrum.ieee.org · 2021
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Last September, a data scientist named Vinay Prabhu was playing around with an app called Philosopher AI. The app provides access to the artificial intelligence system known as GPT-3, which has incredible abilities to generate fluid and nat…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください