概要: 2023年12月、ヒンガム高校の生徒2名(RNHと匿名)が、APアメリカ史の課題の原稿作成にGrammarlyを使用したと報じられました。AIが生成したテキストには、実在しない書籍への捏造された引用が含まれており、生徒はAIの使用を確認したり認めたりすることなく、それをコピー&ペーストしました。これは学校の学術的誠実性に関する方針に違反し、懲戒処分につながりました。RNHの両親は後に学区を提訴しましたが、連邦裁判所は学校側に有利な判決を下しました。
Editor Notes: The incident itself occurred sometime in December 2023. The court ruling was published on November 20, 2024. It can be read here: https://fingfx.thomsonreuters.com/gfx/legaldocs/lbvgjjqnkpq/11212024ai_ma.pdf.
Alleged: Grammarly developed an AI system deployed by Hingham High School students と Hingham High School student RNH, which harmed Hingham High School students , Hingham High School student RNH , Hingham High School と Academic integrity.
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
5.1. Overreliance and unsafe use
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Human-Computer Interaction
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
インシデントレポート
レポートタイムライン
Loading...