Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1402: DOGEは、国立人文科学基金の助成金の取り消しにおいて、検証されていないChatGPTの出力に依存していたと報じられている。

自動翻訳済み
概要:
自動翻訳済み
政府効率化局(DOGE)の職員は、プロジェクトが「DEI」に該当するかどうかを判断するために、全米人文科学基金(NEH)の助成金の申請書をChatGPTに入力し、その出力結果を用いて終了すべき助成金のリストを作成していたと報じられています。2025年4月以降、NEHは助成金の交付を取り消し、資金を回収しました。当局が欠陥があり、十分な審査を受けていないAI審査プロセスに依存していたとされ、全国の人文科学団体やプロジェクトに混乱をもたらしたと報じられています。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: OpenAI developed an AI system deployed by United States Department of Government Efficiency (DOGE) , Justin Fox (DOGE) と Nate Cavanaugh (DOGE), which harmed National Endowment for the Humanities grantees , Humanities organizations , Scholars と Epistemic integrity.
関与が疑われるAIシステム: ChatGPT

インシデントのステータス

インシデントID
1402
レポート数
1
インシデント発生日
2025-04-02
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident OccurrenceDOGEが人文科学にChatGPTを解き放ったとき
Loading...
DOGEが人文科学にChatGPTを解き放ったとき

DOGEが人文科学にChatGPTを解き放ったとき

nytimes.com

Loading...
DOGEが人文科学にChatGPTを解き放ったとき
nytimes.com · 2026
自動翻訳済み

トランプ政権が昨春、全米人文科学基金(DEI)の助成金削減策を模索した際、教授陣にとってお馴染みの悩みの種、ChatGPTに目を向けた。

昨年3月、イーロン・マスク率いる政府効率化局の職員2人が、トランプ大統領の政策に反する、既に承認済みの助成金を取り消すという任務を帯びて同局に赴任した。しかし、彼らは助成金交付済みのプロジェクトを綿密に調査するのではなく、インターネットから短い概要を抜き出し、AIチャットボットに入力した。

質問はシンプルだった。「以下の内容はDEIに少しで…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

Dec 2012 · 2 レポート
Loading...
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 29 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

Dec 2012 · 2 レポート
Loading...
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 29 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd