Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6895

Loading...
政府機関がイーロン・マスクのGrokチャットボットの利用に警鐘を鳴らす
wsj.com · 2026

児童搾取の防止に尽力していると述べているマスク氏は、1月に画像生成・編集ツールの提供を有料顧客に限定すると発表した。マスク氏とxAIはコメント要請に応じなかった。

ここ数週間、GSA職員はUSAiと呼ばれるツールにxAIのロゴを掲載するよう指示された。USAiは、連邦政府職員が様々なAIモデルを試すためのサンドボックスのようなものだ。事情に詳しい関係者によると、Grokは主に安全上の懸念からUSAi経由ではアクセスできず、現在もプラットフォームから除外されている。

ウェブサイトにはxAIのロゴが掲載されているが、Anthropic、Google、Metaのモデルしか提供されていない。

関係者によると、GSAのAI研究チームは、Grokの安全性に関する問題を指摘した報告書を政府高官に配布したという。この報告書では、Grokの安全性に関する欠陥はエッジケースに限定されず、「保護されていない構成における安全でないコンプライアンスへのより広範な傾向を反映している」と指摘されている。

グルエンバウム氏は声明で、国防総省はAIの安全性を真剣に受け止めていると述べた。「我々は、xAIを含む最先端のAIモデルを、包括的な内部審査プロセスを通じて厳格に評価しています。今回のケースでは、確立された手順に従い、スケジュール通りに進めるという決意を維持しました」と同氏は述べた。

事情に詳しい関係者によると、2週間前、国防総省の責任あるAI担当責任者であるマシュー・ジョンソン氏は、国防総省がAI能力の拡大を強く推進する中で、安全性とガバナンスが後回しにされているという懸念から辞任した。

ジョンソン氏のチームは以前、Grokの安全性の問題を指摘し、政府の倫理基準や基準との整合性を疑問視するメモを配布していた。これらのメモは国防総省の指揮系統に送付されていた。

コメントを求められたジョンソン氏は、自身の退任を発表したLinkedInの投稿を引用し、国防総省の責任あるAI部門で「並外れた影響力と過小評価されていた、真の、物静かなプロフェッショナル」からなるチームを誇りに思うと述べた。「私たちは常に不可能な状況に直面しましたが、粘り強さと度重なる徹夜作業の組み合わせによって、何とか常に成果を上げてきました」

国防総省のショーン・パーネル報道官は声明で、「米国を代表する最先端AI企業の一つであるxAIを国防総省に迎えることができ、大変嬉しく思っています。近い将来、Grokを公式AIプラットフォームGenAI.milに導入することを楽しみにしています」と述べた。

国の情報収集と処理の大部分を監督する国家安全保障局(NSA)は、2024年11月にGrokを含む大規模言語モデルについて機密扱いのレビューを実施した。レビューに詳しい関係者によると、Grokには、AnthropicのClaudeなど他のモデルには見られなかった特定のセキュリティ上の懸念があることが判明した。この結論は、国防総省の一部の部署がGrokの使用を思いとどまらせる危険信号となったと関係者らは述べている。

先月、ベネズエラのニコラス・マドゥロ前大統領を捕らえるための米軍による作戦にアントロピックのクロードが使用されたことで、国防総省との緊迫した対立が激化した。

Anthropicの使用ガイドラインは、Claudeを暴力の助長、武器の開発、監視の実施に使用することを禁じており、同社は軍があらゆる合法的なシナリオで自社のモデルを使用することを拒否しています。xAIはこの文言に同意しています。

xAIは、7月にAIオフィスから最大2億ドルの契約を獲得し、国防総省への足掛かりを得ました。この契約は、Google、OpenAI、Anthropicにも授与されました。GoogleとOpenAIは、非機密設定での使用は承認されていますが、機密活動での使用は承認されていません。

OpenAIのサム・アルトマン最高経営責任者(CEO)は木曜日、同社が国防総省と協力して、Anthropicと同様の安全基準を維持しながら、機密性の高い環境で自社のモデルを使用できるかどうかを検討していると語ったと、ウォール・ストリート・ジャーナル紙が報じた。GoogleとOpenAIの従業員は、両社に対し、同様の安全基準を維持するよう求めるオンライン嘆願書に署名した。

AIおよびセキュリティアナリストによると、軍は最近まで、GrokよりもClaudeを信頼していた。これは、業界の多くの人々がClaudeをより信頼性の高いモデルと見なしていたためだ。

「陸軍省のような顧客にとって重要な機能全てにおいて、現状ではGrokとGrokのパフォーマンスは同等ではないと考えています」と、戦略国際問題研究所(CSIS)のAI担当上級顧問、グレゴリー・アレン氏は述べています。アレン氏は以前、国防総省のAI戦略に携わっていました。

事情に詳しい関係者によると、バイデン政権下では、国防総省傘下の最高デジタル・AI局(CDI)がGrokのいかなる活用も拒否したとのことです。懸念事項には、Grokはモデルの学習に使用されたデータソースの追跡を困難にし、連邦政府の責任あるAI基準に準拠しておらず、安全性のガードレールが脆弱であることなどが含まれていました。関係者によると、xAIは自社の技術をハッキングして脆弱性を特定・修正する試みを十分に行っていませんでした。これは、技術用語でレッドチーム演習と呼ばれるプロセスです。

政府機関でGrokを検証した関係者によると、最近のテストでは、このチャットボットは他のモデルよりも「データポイズニング」の影響を受けやすいことが示されています。データポイズニングとは、操作された、偏った、または不正確なデータによって基盤となるデータセットが破損するものです。 

それでも、米当局は、Grokが敵対勢力を模倣するのに効果的であると判断しており、これは例えば戦争ゲームなどで役立つと、議論に詳しい関係者は述べている。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd