Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 843: Generative AI Plagiarism Incident at Hingham High School Reportedly Tied to Inaccurate Citation Outputs from Grammarly AI

概要: In December 2023, two Hingham High School students ("RNH" and unnamed) reportedly used Grammarly to create a script for an AP U.S. History project. The AI-generated text included fabricated citations to nonexistent books, which the student copied and pasted without verification or acknowledgment of AI use. This violated the school's academic integrity policies, leading to disciplinary action. RNH's parents later sued the school district, but a federal court ruled in favor of the school.
Editor Notes: The incident itself occurred sometime in December 2023. The court ruling was published on November 20, 2024. It can be read here: https://fingfx.thomsonreuters.com/gfx/legaldocs/lbvgjjqnkpq/11212024ai_ma.pdf.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Grammarly developed an AI system deployed by Hingham High School students と Hingham High School student RNH, which harmed Hingham High School students , Hingham High School student RNH , Hingham High School と Academic integrity.

インシデントのステータス

インシデントID
843
レポート数
2
インシデント発生日
2024-11-20
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

5.1. Overreliance and unsafe use

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Human-Computer Interaction

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

マサチューセッツ州の親たちは、社会科のプロジェクトにAIを使用した生徒が「D」評価を受けたとして学区を訴える+1
学校が生徒にAIの使用を理由に罰を与えたことは何も悪いことではないと裁判所が判決
マサチューセッツ州の親たちは、社会科のプロジェクトにAIを使用��した生徒が「D」評価を受けたとして学区を訴える

マサチューセッツ州の親たちは、社会科のプロジェクトにAIを使用した生徒が「D」評価を受けたとして学区を訴える

foxnews.com

学校が生徒にAIの使用を理由に罰を与えたことは何も悪いことではないと裁判所が判決

学校が生徒にAIの使用を理由に罰を与えたことは何も悪いことではないと裁判所が判決

arstechnica.com

マサチューセッツ州の親たちは、社会科のプロジェクトにAIを使用した生徒が「D」評価を受けたとして学区を訴える
foxnews.com · 2024
自動翻訳済み

社会科のプロジェクトに人工知能を使用したマサチューセッツ州 (AI)を使用した高校3年生の息子が居残りと「D」の成績を受けたため、両親が教師と学校を相手取って訴訟を起こした。

「息子は不正行為の疑いをかけられていますが、不正行為ではありません。AIを禁止する規定はハンドブックにありませんでした」と、先月マサチューセッツ州プリマス郡地方裁判所にヒンガム高校の管理者と学区を相手取って起こされた訴訟で、夫のデールとともに原告に名を連ねているジェニファー・ハリスはボストン25ニュース…

学校が生徒にAIの使用を理由に罰を与えたことは何も悪いことではないと裁判所が判決
arstechnica.com · 2024
自動翻訳済み

連邦裁判所は昨日、人工知能ツールを使って課題をこなした息子を罰したとしてマサチューセッツ州の学区を訴えた両親に不利な判決を下した。

デール・ハリスさんとジェニファー・ハリスさんはヒンガム高校の職員と学校委員会を訴え、息子が大学に出願する前に、学校に息子の成績を変更し、懲戒記録から事件を抹消するよう求める仮差し止め命令を求めた。両親は生徒手帳にAIの使用を禁じる規定はないと主張したが、学校当局は生徒が複数の規則に違反したと述べた。

ハリス氏の差し止め命令申し立ては、昨日マサチュ…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

New Jersey Police Wrongful Arrested Innocent Black Man via FRT

Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match

Jan 2019 · 4 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

New Jersey Police Wrongful Arrested Innocent Black Man via FRT

Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match

Jan 2019 · 4 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e