インシデント 146の引用情報

Description: A publicly accessible research model that was trained via Reddit threads showed racially biased advice on moral dilemmas, allegedly demonstrating limitations of language-based models trained on moral judgments.
推定: Allen Institute for AIが開発し提供したAIシステムで、Minority Groupsに影響を与えた

インシデントのステータス

インシデントID
146
レポート数
3
インシデント発生日
2021-10-22
エディタ
Sean McGregor, Khoa Lam

GMF 分類法のクラス

分類法の詳細

Known AI Goal

Question Answering

Known AI Technology

Distributional Learning, Language Modeling

Potential AI Technology

Transformer

Known AI Technical Failure

Distributional Bias, Gaming Vulnerability

Potential AI Technical Failure

Overfitting, Robustness Failure, Context Misidentification, Limited Dataset

The AI oracle of Delphi uses the problems of Reddit to offer dubious moral advice
theverge.com · 2021

Got a moral quandary you don’t know how to solve? Fancy making it worse? Why not turn to the wisdom of artificial intelligence, aka Ask Delphi: an intriguing research project from the Allen Institute for AI that offers answers to ethical di…

Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist
futurism.com · 2021

We’ve all been in situations where we had to make tough ethical decisions. Why not dodge that pesky responsibility by outsourcing the choice to a machine learning algorithm?

That’s the idea behind Ask Delphi, a machine-learning model from t…

Can a Machine Learn Morality?
nytimes.com · 2021

Researchers at an artificial intelligence lab in Seattle called the Allen Institute for AI unveiled new technology last month that was designed to make moral judgments. They called it Delphi, after the religious oracle consulted by the anci…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents