概要: 2024年10月、アラスカ州教育長官ディーナ・ビショップ氏は、学校の携帯電話使用に関する方針を策定する際に生成AIを使用したとされ、結果として、存在しない研究論文の引用が捏造されたと報じられています。AIの使用を明らかにしていないこの文書は州教育委員会に提出されましたが、修正が報告されたにもかかわらず、AIによって生成された誤りは最終決議に残されました。
Alleged: Unknown large language model developers developed an AI system deployed by Alaska Department of Education and Early Development と Deena Bishop, which harmed Alaskan education policymakers , Alaskan students , Alaskan parents of students , Alaskan education system と Alaska Board of Education members.
関与が疑われるAIシステム: Unknown large language models
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン
Loading...
州のトップ教育当局者は、生成型人工知能を利用してアラスカの学校での携帯電話の使用に関する提案された政策を起草し、存在しない学術研究を引用した州の文書を作成しました。
この文書では、その構想にAIが使用されたことは明らかにされていませんでした。少なくとも、AIが生成した偽の情報の一部は、州の教育委員会と早期開発メンバーの前に出ました。
教育やその他の政府機関の政策立案者は、十分に裏付けられた研究に依存しています。コミッショナーがAIで生成された偽のコンテンツを使用したことは、A…
バリアント
「バリアント 」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents


