Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 915: Alaska Education Department Reportedly Published Policy Featuring Erroneous AI-Generated Citations

概要: In October 2024, Alaska’s Education Commissioner Deena Bishop allegedly used generative AI to draft a school cellphone policy, resulting in reportedly fabricated citations of non-existent studies. The document, which did not disclose AI use, was shared with the state Board of Education, and despite reported corrections, AI-generated errors remained in the final resolution.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unspecified large language model developers developed an AI system deployed by Alaska Department of Education and Early Development と Deena Bishop, which harmed Alaskan education policymakers , Alaskan students , Alaskan parents of students , Alaskan education system と Alaska Board of Education members.
関与が疑われるAIシステム: Unspecified large language models

インシデントのステータス

インシデントID
915
レポート数
1
インシデント発生日
2024-10-28
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
アラスカ州の教育関係者が生成型AIに依存していたことが虚偽の引用で明らかになり、より広範な疑問が浮上 • アラスカビーコン
アラスカ州の教育関係者が生成型AIに��依存していたことが虚偽の引用で明らかになり、より広範な疑問が浮上 • アラスカビーコン

アラスカ州の教育関係者が生成型AIに依存していたことが虚偽の引用で明らかになり、より広範な疑問が浮上 • アラスカビーコン

alaskabeacon.com

アラスカ州の教育関係者が生成型AIに依存していたことが虚偽の引用で明らかになり、より広範な疑問が浮上 • アラスカビーコン
alaskabeacon.com · 2024
自動翻訳済み

州のトップ教育当局者は、生成型人工知能を利用してアラスカの学校での携帯電話の使用に関する提案された政策を起草し、存在しない学術研究を引用した州の文書を作成しました。

この文書では、その構想にAIが使用されたことは明らかにされていませんでした。少なくとも、AIが生成した偽の情報の一部は、州の教育委員会と早期開発メンバーの前に出ました。

教育やその他の政府機関の政策立案者は、十分に裏付けられた研究に依存しています。コミッショナーがAIで生成された偽のコンテンツを使用したことは、A…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 レポート
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 レポート
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 レポート
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 レポート
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e