Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5325

関連インシデント

インシデント 11032 Report
Purported DOGE Contract Review Tool Cited in Reports of AI-Driven Misjudgments in VA Budget Cuts

DOGEの欠陥のあるAIツールがVA契約に誤った情報を与え、退役軍人サービスに脅威を与える
seifeur.com · 2025

政府効率化局(DOGE)は、退役軍人省(VA)における不要な契約を特定し、コスト削減を図る人工知能(AI)ツールを開発しました。しかし、このAIシステムには重大な技術的欠陥と不正確さが露呈し、退役軍人サービスに悪影響を及ぼす可能性のある契約のキャンセルが発生しました。

AIツールの開発と目的

2023年初頭、トランプ政権はVAの支出削減を目指しました。当局は、医療や政府調達の経験が限られているソフトウェアエンジニアのサヒル・ラビンジア氏に、迅速なAIソリューションの構築を依頼しました。極めて限られた時間的制約の中、ラビンジア氏は数日以内に契約評価ツールを開発しました。

このAIソフトウェアは、不要と判断された契約を「MUNCHABLE(簡単に削除できる)」と分類し、削除可能な契約を推奨することで支出の効率化を目指しました。ラビンジア氏のツールは、契約文を解析し、契約番号や契約総額などの詳細情報を抽出するように設計されました。

技術的な欠陥と不正確さ

時代遅れのAIモデルの使用

AIシステムは、時代遅れで安価な大規模言語モデルに依存していました。そのため、いくつかのエラーが発生していました。例えば、契約価値を誤って解釈し、小規模な契約の価値を過大評価することがよくありました。3,400万ドルと報告されていた契約の中には、実際には3万5,000ドルと低い評価額だったものもありました。この過大評価されたデータにより、どの契約を破棄すべきかの判断が歪められていました。

データ分析の範囲の限定

Lavingia氏のアルゴリズムは、契約の最初の2,500語のみを評価していました。これらの最初のページには要約が乏しく、契約条件の全文が記載されていることは稀であるため、過度に単純化された判断につながっていました。また、AIは契約書内の複数の金銭的価値を混同し、公開データベースに優れたデータが存在するにもかかわらず、不正確な数値を選択していました。

VAの文脈と専門知識の欠如

AIツールは、VAの業務に関する重要な文脈的知識を無視していました。法的要件を考慮しておらず、退役軍人のケアに不可欠なサービスがどれであるかを理解していませんでした。その結果、VAの契約調達システムの中核コンポーネント(重要な機能を支えるもの)が「食べられる」と誤分類されました。

VAの契約と退役軍人サービスへの影響

キャンセル対象としてフラグが付けられた契約

DOGEのAIは、2,000件以上の契約をキャンセルの可能性があるとフラグ付けしました。その後の対応に関する透明性は依然として限られています。しかし、システムによって特定された少なくとも24件の契約はキャンセルされました。これらの契約には、遺伝子配列解析によるがん治療開発、VAの研究のための血液サンプル分析、看護師のケア改善ツールに関する契約などが含まれています。

退役軍人への影響に関する懸念

VAは、退役軍人のケアに直接影響を与える可能性のある契約の削減は避けたいと述べています。しかしながら、調査報告書では、わずかな削減であっても退役軍人へのサービスの質を低下させるリスクがあることが示されています。一部のVA職員は、契約維持の正当性を急いで主張し、時には数時間しか与えられず、ソーシャルメディアの文字数制限を模倣した短い書面による回答しか得られなかったと報告しています。

Sahil Lavingia氏とDOGEのアプローチの背景

Lavingia氏の経験と時間的制約

Sahil Lavingia氏は、ソフトウェアエンジニアリングに約15年携わっていますが、AIやヘルスケアに関する正式な専門知識は持ち合わせていません。2023年3月17日にDOGEに入社した翌日、彼はAI支援コーディングを用いてAIシステムを開発しました。2ヶ月の在職期間中、彼はVA契約書のダウンロードと分析に時間を費やしましたが、VAの手順を学ぶ機会は限られていました。

ツールの限界の認識

Lavingia氏はProPublicaに対し、ツールに誤りがあったことを認めました。彼は、最終的な意思決定にコードを使用することを推奨していません。彼は、コミュニティによる改善を可能にするため、「munchable」スクリプトをGitHubで公開しました。これは、当時イーロン・マスク氏の監督下にあったDOGEの透明性という目標に沿ったものです。

批判と専門家の意見

予算削減におけるAI活用に関する懸念

専門家は、特に退役軍人サービスに関わる複雑な予算決定において、AIが適切かどうか疑問視している。ペンシルベニア大学法学部のキャリー・コリアネーゼ教授は、既製の大規模言語モデル(LLM)への依存を批判し、このような微妙な文脈における信頼性の低さを強調した。

推奨される代替アプローチ

元財務省IT契約責任者のウォルド・ジャキス氏は、AIはこのタスクには不適切なツールだと指摘した。ジャキス氏は、AIは妥当ではあるものの不正確な出力を生成すると主張した。また、政府契約を徹底的に評価するための訓練を受けた専門家による人間による監督の必要性を強調した。

退役軍人省の対応と今後の方向性

退役軍人省の契約審査プロセス

退役軍人省の広報担当官ピート・カスペロヴィッチ氏は、DOGEの取り組みを称賛し、この審査を「常識的な前例」と呼んだ。同氏は、7万6000件のVA契約はすべて、削減またはキャンセルされる前に、契約専門家と上級職員を含む複数回の内部レビューを受けていると述べた。

VAにおけるAIの潜在的な拡張

VA当局は、「食べられる」AIツールの継続的な使用を認めていない。文書によると、DOGEは給付金請求部門の再編にAIのさらなる活用を検討し、場合によっては人員の交代も検討していたことが明らかになっている。これは、以前の課題にもかかわらず、AIソリューションへの関心が継続していることを示唆している。

主なポイント

  • DOGEは、不要不急のVA契約を特定して削減するためのAIベースのツールを開発しましたが、古いモデルと文脈知識の欠如により重大なエラーが発生していました。
  • AIは契約の価値を誤って評価し、重要な法的および運用上のニュアンスを見落とし、退役軍人サービスがキャンセルされるリスクがありました。
  • このツールの影響を受けた契約のキャンセルは、すでに重要な研究およびケアプログラムに影響を与えています。
  • 専門家は、このような複雑な意思決定には汎用AIよりも人間の専門知識を推奨しており、AIの幻覚や不正確さのリスクを強調しています。
  • VA(退役軍人省)はAIツールの役割を認識していますが、契約決定前に包括的な内部レビューを行うことを強調しています。
  • VAにおけるAIの将来的な導入は依然として不透明で、AIの活用拡大は慎重に計画されています。

DOGE、退役軍人省の契約を「食いつぶす」ためのエラーが発生しやすいAIツールを開発

時代遅れのモデルと最小限のコンテキストを持つAIツールが、本当に退役軍人省の契約のうちどれを破棄すべきかを判断できるでしょうか?端的に言えば、答えは「ノー」です。しかし、DOGEは契約を「食いつぶす」ことを目的としたまさにそのようなツールの開発を止めませんでした。その結果、政府の意思決定におけるAIの役割について深刻な疑問が生じています。

では、一体何が起こったのでしょうか?AIへの野心、ずさんな開発、そして退役軍人への大きなリスクについて、この興味深くも教訓的な物語を分析してみましょう。

AI契約クラッシャーの誕生

2023年初頭、トランプ政権は退役軍人省(VA)の複数の契約を破棄する準備を整え、医療や政府政策の経験が全くないソフトウェアエンジニア、サヒル・ラヴィンジア氏にその任務を託しました。政府効率化局(DOGE)の傘下で働くラヴィンジア氏は、破棄可能な「不要不急」の契約を特定するツールの開発を任されました。

その結果? 急ごしらえのAIツール、「マンチャー」が誕生しました。このツールは契約書をスキャンし、一部を「マンチャー可能」とラベル付けすることで、おそらく納税者のお金を節約したのでしょう。理論上は素晴らしいように聞こえますが、実際はどうなのでしょうか?

時代遅れのAIと幻覚の数々

しかし、そう簡単ではありません。このAIシステムは、安価で時代遅れのモデルに基づいて構築されていました。まるで、大陸横断旅行のために15年前のGPSを購入するようなものです。 AIは、契約額を極端に水増しするなど、明らかなミスを犯しました。例えば、ツールは1,000件以上の契約を、それぞれ3,400万ドル相当と認識していましたが、中には実際には3万5,000ドル相当の契約もありました。

なぜこのような事態になったのでしょうか?Lavingia氏のシステムは、各契約の最初の2,500語、つまり概要ページのみを分析しました。概要は簡素で、適切な判断を下すために必要な詳細な情報が欠けていました。さらに悪いことに、1つの文書に複数の数字が記載されている場合、AIは誤った金額を算出していました。専門家は、正しいデータは公開データベースで簡単に入手できるものの、適切に活用されていなかったと指摘しています。

コンテキスト?どのようなコンテキスト?

このシナリオにおけるAIの弱点は、コンテキストです。Lavingia氏の提示したプロンプトには、どの契約が法律で義務付けられているか、あるいは患者のケアに不可欠であるかといった、VAの業務に関する重要な背景情報が含まれていませんでした。その結果、AIがVA調達システムの重要な部分を「munchable(食べられる)」とタグ付けするという奇妙な結果が出ました。

さらに悪いことに、システムは契約キャンセルのニュアンスを理解していませんでした。すべての削減が何の影響もなく節約につながるわけではありません。中には、退役軍人が日々頼りにしているサービスを損なうものもあります。

影響:フラグ付けされた契約と退役軍人への影響

DOGEの「muncher(食べられる)」は、2,000件以上の契約をキャンセルの可能性があるとフラグ付けしました。実際にどの契約が削減されたのかは依然として不透明ですが、少なくとも24件のキャンセルが確認されています。これには、遺伝子配列解析装置(がん治療の進歩に使用)、VA研究のための血液サンプル分析、看護師がより良いケアを提供するためのツール提供に関する契約などが含まれています。

どれほど危険なのか?それは事実です。VAは、退役軍人のケアに直接関連する契約の削減は避けていると主張していますが、報告書は異なる事実を示しています。比較的小規模な削減でさえ、すでに退役軍人のケアの質に影響を与えています。

スタッフによると、契約を解除すべきでない理由を説明するのに、わずか数時間、場合によっては255文字しか与えられなかったそうです。これは、重要なサービスを擁護するツイートを書くようなものです。このような急ぎのプロセスは、ツールやその後の意思決定に対する信頼を育むものではありません。

Lavingia氏の時間との闘い、そして欠陥の告白

Sahil Lavingia氏は15年近くのソフトウェア経験を持っていましたが、正式なAIトレーニングを受けていなかったのです。さらに困難だったのは、3月中旬にDOGEに入社した後、わずか1日でツールをゼロから構築できたことです。AI支援コーディングを用いて、彼は「簡単に扱える」スクリプトを素早く作成し、次の1週間は契約の分析に費やしました。

彼は後に欠陥を認め、「間違いがありました。私のコードを実行して、書かれている通りに動作させることは決して勧めません」と述べています。作成者からの率直なフィードバックですが、残念ながら、すでに影響を受けている一部のVA契約にとっては遅すぎました。

それでも、ラヴィンジア氏は異例の措置として、このツールをGitHubでオープンソース化し、マスク氏が承認したDOGEの透明性目標に沿って、テクノロジーコミュニティにシステムの改善を促しました。しかし残念ながら、このコードの公開は契約解除の混乱の即時的な解決にはほとんど役立ちませんでした。

専門家の見解:AIは解決策ではない

多くの専門家が厳しい批判を表明しました。ペンシルベニア大学でAIガバナンスを専門とする法学・政治学教授のキャリー・コグリアネーゼ氏は、複雑な意思決定に「既製の」大規模言語モデル(LLM)を使用することは深刻な問題だと指摘しました。こうした汎用的なAIモデルは、微妙な予算決定を行う上で信頼性に欠けるからです。

元財務省IT契約責任者のウォルド・ジャキス氏は、この文脈でのAIの使用を強く非難し、「AIは説得力のある答えを出すが、往々にして間違っている」と述べました。彼の提言は、契約評価には人間を雇用することです。AIは人間の判断を補助するものであり、代替するものではありません。そして、AIが単独で退役軍人支援サービスの運命を決定することは決してあってはならないのです。

VAの立場と今後の展望

騒動にもかかわらず、VA広報担当者のピート・カスペロヴィッチ氏はDOGEの取り組みを称賛し、契約審査における「常識的な前例」と呼びました。彼は、7万6000件のVA契約はすべて、キャンセルされる前に契約専門家と上級職員による徹底的な審査を受けていることを強調しました。

しかし、VAはこの「簡単に扱える」ツールを使い続けるかどうかについては明言を避けました。今年初めの文書によると、DOGEはAIの活用拡大を提案していました。例えば、従業員を交代させることで給付金請求処理を自動化するといった提案です。

この見通しは多くの人々を不安にさせています。契約評価にとどまらずAIを導入し、人間の給付金担当者を代替する可能性は、サービスを求める退役軍人に直接影響を与える可能性があります。

教訓:この事例から学ぶこと

VA契約におけるDOGEのAI活用の顛末は、重要な洞察を与えてくれます。

  • スピード vs. 正確性: 十分な専門知識がないままAIソリューションを性急に導入すると、現実の生活に影響を与えるエラーにつながります。
  • コンテキストが重要: AIツールは、有効な評価を行うために、具体的な運用環境と法的環境を理解する必要があります。
  • 人間による監視は依然として不可欠: 重要な政策決定において、AIは人間の判断を補助することはできますが、代替すべきではありません。
  • 透明性が重要: コードのオープンソース化は良いことですが、退役軍人に影響を与える意思決定プロセスには、GitHubリポジトリを超えた説明責任が必要です。

より優れたAIが役に立ったでしょうか?

もしVAがLavingia氏に医療契約を完全に理解するための時間とリソースを与えていたらどうだったでしょうか? AIが、法的義務と医療上の優先事項に基づいた最新のモデルでトレーニングされていたらどうだったでしょうか? そうすれば、ツールは重要な研究やサービスを脅かすことなく、非効率的な契約を指摘できたかもしれません。

しかし、このツールは政府の効率化における信頼できるパートナーというより、技術的な応急処置に過ぎなくなってしまいました。

退役軍人と市民は何ができますか?

特にあなたが頼りにしているサービスに関係する場合は、公共政策におけるAIの活用について最新情報を入手しましょう。質問:

  • AIの推奨は独立機関によって検証されていますか?
  • 意思決定のプロセスは透明性がありますか?
  • 重要な意思決定に人間が積極的に関与していますか?それとも機械がすべてを決定していますか?

説明責任のあるAIの導入を求めることは、すべての人、特に強力で思慮深い支援システムを必要とする退役軍人を守ることにつながります。

まとめ

VA(退役軍人省)の契約を処理するDOGEのAIツールは、政府によるAI活用における教訓を示しています。自動化はコスト削減と効率化を約束しますが、ケアの質や情報に基づいた意思決定を犠牲にしてはなりません。

AIは人間の知恵なしに、退役軍人の健康にとって何が不可欠かを本当に判断できるでしょうか?今のところは無理です。今は、AIの判断はおやつに任せ、退役軍人向けのサービスは信頼できる機関に委ねましょう。

DOGEが退役軍人省の契約用に開発したAIツールの主な目的は何でしたか?

このツールは、VAが保有する不必要な契約を特定することを目的としていました。特定の契約には「MUNCHABLE(簡単に削除できる)」というラベルが付けられ、キャンセルまたは削除の検討が必要と示唆されました。

なぜAIツールはVA契約の分析で多くのエラーを生成したのでしょうか?

ツールは古いAIモデルと限られた契約データを使用していたため、契約金額や詳細を誤って読み取ることがよくありました。VAの業務に関するコンテキストが欠如していたため、誤った評価につながりました。

AIツールは退役軍人向けサービスとVA契約のキャンセルにどのような影響を与えましたか?

ツールは2,000件以上の契約をキャンセル対象としてフラグ付けしました。その中には、遺伝子配列の維持管理や血液サンプルの分析など、退役軍人のケアに不可欠な契約も含まれており、そのうちのいくつかはキャンセルされました。

VA契約の審査にAIを使用することについて、専門家は主にどのような批判をしましたか?

専門家は、既製のAIモデルは予算削減のような複雑な意思決定には信頼性が低いと述べました。AIは妥当ではあっても誤った回答を出す可能性があるため、人間の判断の必要性を強調しました。

サヒル・ラヴィンギア氏の経験と時間的制約は、AIツールの開発にどのような影響を与えましたか?

ラヴィンギア氏は医療や行政の経験がなく、プレッシャーの中、わずか数日でツールを開発しました。彼は間違いがあったことを認め、AIの結論だけに頼らないよう勧めました。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178