Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6927

Loading...
OpenAIは政府のスパイ活動への扉を開く
theatlantic.com · 2026

月曜日、OpenAI本社の外に数人の人々がカラフルなチョークを持って集まり、ひざまずいて歩道にメッセージを書き始めた。「自由のために立ち上がろう。合法的な大規模監視はやめよう。契約を変えてほしい」。

問題となっているのは、同社が最近国防総省と締結した事業契約だ。これは国防総省がAnthropic社に突然反対の姿勢を取ったを受けてのものだ。OpenAIは今後、戦時中の意思決定や情報収集などが含まれる可能性のある機密指定の用途で自社の技術を軍に提供する。多くの法律専門家によると、この契約は政府に広範な権限を与える可能性があるという。 「OpenAIが正しい行いをし、何かしら、どんなことでも構わないから立ち上がる姿を見たいと心から願っています」と、AIスタートアップの創業者でチョーク抗議活動に参加したニキ・デュプイ氏は語った。

サム・アルトマン氏が先週木曜日の夜に送った、広くリークされた内部メモ(私もコピーを入手した)の中で、OpenAIのCEOは、国防総省がOpenAI製品を大規模な国内監視や自律型殺傷兵器に使用するのを阻止するための「レッドライン(越えてはならない一線)」を求めると述べている。これは明らかに、Anthropic社が要求し、国防総省を激怒させた制限と全く同じ内容だった。国防長官ピート・ヘグセス氏は、同社をサプライチェーンリスクに指定するに至った。これは、国防総省に製品を販売する全ての企業が、軍との協力業務においてAnthropic製品の使用を停止することを義務付ける、非常に厳しい制裁である。OpenAIは、Anthropic社が拒否したまさにその条件を、まさに今まさに確保しようとしているのかもしれない。

しかし、契約書(少なくともOpenAIが公開している部分)をよく読むと、境界線が実際には曖昧であることが分かります。複数の独立した法律専門家は私に、国防総省がOpenAIの技術(ChatGPTの基盤となるモデルのバージョン)をアメリカ人の大量監視に使用しても法的には問題ない可能性が高いと述べました。さらに、軍はOpenAIの技術を自律型兵器に使用する道筋を持つ可能性が高いでしょう。国防総省の以前のパートナーであるAnthropicのAIモデルは、すでに戦争に使用されている可能性があり、最近では、同社の製品がイランでの標的の特定に使用されたと報じられました(Anthropicはこの報道についてコメントを控えました)。しかし、同社は自社の技術を完全自律型兵器に使用することを拒否していました。

トランプ政権が戦争省と呼ぶ国防総省は、契約に関する私の質問への回答を拒否した。OpenAIの広報担当者は、国防総省が同社のAIシステムを国内監視に使用しないことに同意したと繰り返し述べたが、具体的な質問には答えなかった。(OpenAIは、The Atlanticのビジネスチームと企業提携を結んでいる。)

「国民は、OpenAIを信頼するか否かを選択しなければならないという難しい立場に置かれている」と、シンクタンク「Institute for Law & AI」の上級研究員チャーリー・ブロック氏は語った。バラク・オバマ政権下で法務顧問、その後陸軍次官を務めたブラッド・カーソン氏は、それほど妥協的ではない見解を示した。先週の出来事を分析した彼は、OpenAIは「一般の人々が大規模監視と考えるようなことにChatGPTを使用することを容認しているようだ」と述べている。


ここ1週間ほど、アルトマン氏とOpenAIは契約について複数の発表を行ってきました。先週土曜日にはブログ投稿で契約文の一部を公開しましたが、数日後のブログ更新でその文言を修正しました。同社のメッセージは混乱を招き、自社の過去の声明や政府からの情報と矛盾しているように見える箇所が複数ありました。

OpenAIは、自社技術の特定の用途には注意すべき点があると述べていましたが、当初公開した契約文言の一部は、その逆を示唆しています。同社は、政府によるOpenAIモデルの利用方法に独自の制限を設けていることも示唆していたが、国務省高官のジェレミー・ルーウィン氏は契約ではOpenAIシステムの「あらゆる合法的利用」、つまり技術的に合法なものだけが許可されていると記し、異なる見解を示した。そのメッセージは「良くても、彼らがこの件を完全に把握していないように思わせ、最悪の場合、公平かどうかは別として、OpenAIはあまり率直ではない傾向があるという認識を強めるだけだ」と、ミネソタ大学で新興技術を研究している法学教授アラン・ローゼンシュタイン氏は筆者に語った。ローゼンシュタイン氏はおそらく外交的な発言をしていたのだろう。ここ数年のOpenAIをめぐる中心的な問題は、率直さよりも誠実さだったのだ。アルトマン氏は2023年後半に短期間解雇された際、OpenAIの非営利団体理事会を欺いたとして非難されていました。OpenAIが委託した第三者によるレビューでは、後にアルトマン氏と理事会の間に「信頼関係が崩壊」したものの、アルトマン氏の「行為が解任を正当化するものではない」という結論が出ました。

先週は混乱が続き、観測筋はあらゆる展開に注目していました。先週金曜日、アルトマン氏はXに、アンスロピックと政権の関係が解消されるというニュースが報じられてからわずか数時間後に、OpenAIが国防総省と合意に達したと投稿しました。アルトマン氏によると、OpenAIの契約には「国内の大規模監視の禁止と、自律型兵器システムを含む武力行使における人間の責任」が含まれているという。しかし、多くの人が懐疑的だった。OpenAIは確かに、Anthropicが提案しなかったものを国防総省に提案したはずだ。「禁止事項」という言葉は監視の全面禁止を意味しているようには見えず、自律型兵器に「人間の責任」を負うべきだという考えは、人間が決定権を持つ場合、OpenAIの技術が自律型兵器に使用される可能性があることを示唆していた。

土曜日のブログ投稿で、OpenAIは国内監視と自律型兵器に対する自社のレッドラインは明確であると主張し、この契約を国防総省と他の米国のAI研究所との間の「緊張緩和」の試みと位置付け、国防総省がAnthropicを含む他の企業にも同じ条件を提示することを期待すると付け加えた。OpenAIは契約書からの引用も公開したが、あまり安心材料にはならなかった。この部分は、「陸軍省は、適用法に則り、あらゆる合法的な目的のためにAIシステムを使用することができる」という文言で始まる。そして、諜報活動におけるOpenAIシステムの使用は、1978年外国情報監視法など、悪名高い米国人へのスパイ活動を可能にしてきた米国の諜報活動を規制する多くの法律や政策に「準拠する」と述べている。例えば、FISA(外国情報監視法)や関連政策の下では、諜報機関は米国人と海外の人々の通話を録音・保存し、企業から大量のユーザーデータを購入して分析することができる。これは通信の直接的な傍受を伴わない。

ここで、契約書の断片だけを使って全体を評価することは不可能であることを指摘しておくべきだろう。ある条項に記載されている制限は、別の条項に記載されている状況下では無効になる可能性がある。しかし、OpenAIが提供しているのは断片的な情報だけだ。私たちが確認できた範囲では、大規模監視の余地が与えられていた可能性が高いと専門家は私に語った。 「普通の人が自動大量監視だと理解しているものでも、違法ではないものは山ほどある」とローゼンシュタイン氏は述べた。例えば、生成AIは、これまで膨大で不透明だった記録――納税申告書、連邦政府の雇用ファイル、数十億件もの傍受された通信、スマートフォンの位置情報など――を、厳密な洞察の宝庫に変えることができる。OpenAIの広報担当者は、契約書で特定の法令を引用しても、合意された国内監視の禁止事項は変わらないと述べた。

武器に関しては、先週土曜日に公開された契約書の文言では国防総省指令3000.09が引用されているが、これは完全自律型兵器の使用を禁止していない。実際には、そのような兵器の審査と使用方法を概説することで、そのような兵器の開発と配備のための合法的な道筋を提供している。つまり、あるアプリケーションが米国法の下で技術的に許可されている場合、OpenAIはそれに従わざるを得ない可能性が高い。そしてもちろん、トランプ政権は法律の非常に広範な解釈を主張してきた。「OpenAIが共有した当初の契約文言は、私には本質的に『すべての合法的な使用』と言っているように思えた」とBullock氏は述べた。


OpenAIがブログ記事を公開した後、Altman氏と彼の従業員数名は、Xに関する質問を受け始めた。契約ではNSAがOpenAI製品を使用することが認められていたのか? OpenAIの国家安全保障パートナーシップ責任者は、答えはノーだと主張した。* 既存の法律に存在する監視の抜け穴はどうなのか? 国防総省が令状なしで購入できる大量の商用調達データをAIで分析することについてはどうなのか?* 複数のOpenAI従業員が、上記の契約について懸念を表明した。ジョージ・ワシントン大学の政府契約法専門家、ジェシカ・ティリップマン氏は、まるで軍がOpenAIの技術を兵器システムに使用するための契約書がソーシャルメディア上でリアルタイムで起草されているかのようだったと語った。

そして月曜日、OpenAIはブログを更新し、AIを活用したスパイ行為からアメリカ国民をより効果的に保護するため、国防総省との契約を修正したと発表した。新しい文言には、「AIシステムは、米国民および米国国民の国内監視のために意図的に使用してはならない」と記されており、「疑義を回避するために」国防総省は「この制限は、商業的に取得した個人情報または識別可能な情報の入手または使用を含む、米国民または米国国民の意図的な追跡、監視、またはモニタリングを禁止するものと理解している」とされている。つまり、OpenAIは契約条件において、自社製品がアメリカ国民を大規模にスパイするために使用されることを防ぐべきであることを明確にしているのだ。

外部の法律専門家によると、今回の改訂は当初の契約文言とは大きく異なっており、少なくとも国防総省に対して既存の適用法を超える制限を課すことになるという。しかし、これまでと同様に、新しい文言は米国人の自動監視を正当化するように解釈される可能性がある。例えば、「意図的に」や「意図的な」といった用語は、「偶発的」とみなされるデータ収集にかなりの余地を与えている。商業的に取得されたデータの多くは、「個人情報または識別可能な」データとはみなされない可能性がある。同様に、「追跡」や「監視」といった用語の定義が狭くても、依然として広範囲にわたる国内情報収集を許容する可能性があると、元陸軍次官のカーソン氏は語った。「一般の人々が考える監視と、国家安全保障当局が考える監視とは全く異なる」と彼は述べた。OpenAIは、質問に対して、これらの用語や契約書の他の用語の定義を提供しなかった。

アップデートでは、国防総省がOpenAIの技術がNSAなどの諜報機関によって更なる交渉なしに利用されることはないと「確認」したとも述べられており、OpenAIの従業員は当時示唆、同社が将来そのような提携を望む可能性があると示唆している。また、「米国人および米国国民」という表現は、書類の有無にかかわらず多くの移民が保護されない可能性があることを示唆している。OpenAIは、書類を持たない移民や非永住者が契約で保護されるかどうかという質問には回答しなかった。カーソン氏にとって、今回の変更は「一見良さそうな空虚なもの」であり、実質的な保証のない見せかけに過ぎない。


もちろん、この議論はすべて、契約上の禁止事項がAIシステムが大規模な国内監視や自律型兵器に利用されるのを防ぐための重要な要素であるという考え方に基づいています。しかし、これは必ずしも真実ではありません。やる気のある弁護士であれば、ほとんどどんな言葉でも悪意を持って解釈する可能性があります。OpenAIの主張を真剣に受け止めるならば、つまり同社が自社製品がアメリカ人をスパイするために使用されることを一切望んでいないのであれば、契約書の文言よりも契約の精神を執行することの方が重要かもしれません。 (国務省のルーウィン氏は、「政府は契約書を書面通りに遵守するつもりだ」と述べ、国内の大規模監視にAIを使用することは「一度も検討したことがない」と付け加えた。)

そのため、OpenAIは、自社のモデルがどのように使用されているかを監視するための技術的な「セーフティスタック」、つまり一種のガードレールを導入し、自社のエンジニアを国防総省と連携させることを明らかにした。これにより、「これらのレッドラインを超えていないことを独立して検証」できるようになると同社は考えている。質問に対し、OpenAIは国防総省の安全対策アーキテクチャがどのように機能するかについて、これ以上の詳細は明らかにしなかった。同社は、これらのガードレールと自社の契約を合わせることで、「Anthropic社を含む以前の契約よりも」優れた保証が得られると主張している。繰り返しになりますが、結局のところ、OpenAIを信頼できるかどうかにかかっています。

これらすべてが、おそらく最も重要かつ複雑な要因へと繋がります。政府とOpenAIがChatGPTの使用許可について意見が一致しない場合、どうなるのでしょうか?OpenAIは、国防総省が契約に違反したと判断した場合、どうするのでしょうか?ティリップマン氏によると、通常は政府が先に行動し、その後に紛争を訴訟に持ち込むとのことです。(OpenAIは、契約条件に違反したと判断した場合、契約を解除できると述べていますが、その手続きの詳細は明らかにしていません。)

そして、これは典型的な交渉とは程遠いものでした。ティリップマン氏によると、Anthropicをブラックリストに登録することで、国防総省は「行き詰まりに陥った場合、米国の民間企業に極端な制裁を科すことを恐れない」ことを示したのです。アルトマン氏はXで、アントロピックをサプライチェーンリスクに指定したことは「極めて恐ろしい前例であり、政府が別の方法で対応していたらよかったのにと思う」と書いた。OpenAIや国防総省との契約を希望する他のAI企業にとって、実際の境界線は非常に明確であるはずだ。政府の条件に従って仕事をするか、全く仕事をしないかだ。OpenAIは自らの選択を選んだのだ。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd