インシデントのステータス
CSETv1 分類法のクラス
分類法の詳細Incident Number
146
CSETv1_Annotator-1 分類法のクラス
分類法の詳細Incident Number
146
GMF 分類法のクラス
分類法の詳細Known AI Goal Snippets
(Snippet Text: You can pose any question you like and be sure to receive an answer, wrapped in the authority of the algorithm rather than the soothsayer., Related Classifications: Question Answering)
CSETv1_Annotator-3 分類法のク ラス
分類法の詳細Incident Number
146
インシデントレポート
レポートタイムライン
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Got a moral quandary you don’t know how to solve? Fancy making it worse? Why not turn to the wisdom of artificial intelligence, aka Ask Delphi: an intriguing research project from the Allen Institute for AI that offers answers to ethical di…
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
We’ve all been in situations where we had to make tough ethical decisions. Why not dodge that pesky responsibility by outsourcing the choice to a machine learning algorithm?
That’s the idea behind Ask Delphi, a machine-learning model from t…
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Researchers at an artificial intelligence lab in Seattle called the Allen Institute for AI unveiled new technology last month that was designed to make moral judgments. They called it Delphi, after the religious oracle consulted by the anci…
バリアント
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents