概要: オーストラリアの学者らが、雇用・職場関係省(DOI)向けにデロイトが作成した福祉コンプライアンスに関する43万9000ドルの報告書に、捏造された参考文献と誤った法的引用が含まれていることを発見したと報じられています。削除された引用は、存在しない文献を参照していたとされ、連邦裁判所の判決も誤って記載されていました。デロイトはその後、 報告書の作成に生成AIを限定的に使用したことを認め、一部返金とともに訂正版を発行しました。
Alleged: Unknown large language model developers developed an AI system deployed by Deloitte, which harmed Deloitte , Scholars erroneously cited , Lisa Burton Crawford , Janina Boughey , Government of Australia , General public of Australia , Epistemic integrity , Department of Employment and Workplace Relations (DEWR) , Carolyn Adams と Academics.
関与が疑われるAIシステム: Unknown large language model
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional