AIID editor's note: There appears to be a second page to this report that is accessible for members. Please consult the original source.
人工知能(AI)を単なるデジタル補助ツール以上のものとして活用した初の大規模サイバー攻撃キャンペーンが記録された。
The Wall Street Journalが最初に報じたところによると、AIアシスタント「Claude」を開発するAnthropicは、同社のAIモデルが悪用され、複数の組織を同時に標的とする広範な攻撃キャンペーンに乗っ取られた事例を記録した報告書(PDF)を公表した。
何が起きたのか Anthropicは9月中旬、攻撃の全サイクルを通じてAIを使用した「高度に洗練されたサイバースパイ活動」を検知した。
エージェント型AIである「Claude Code」が悪用され、「偵察、脆弱(ぜいじゃく)性の発見、攻撃実行、水平展開、認証情報の収集、データ分析、データ窃取」を実行可能な自動攻撃フレームワークの構築に利用された。さらに、これらの段階は「大部分が自律的に」実行され、人間のオペレーターはClaude Codeに「侵入テストのオーケストレーターおよびエージェント」として動作するよう指示した後、基本的な監視を提供するにとどまった。言い換えれば、防御側を装うよう指示したのである。
このAIは標的組織の脆弱性を発見しただけでなく、その脆弱性の悪用、データ窃取、その他の悪意ある侵入後活動も可能にした。
Anthropicによると、この攻撃は著名な組織が標的となっただけでなく、「戦術的作戦」の80~90%がAIによって独立して実行されたという。
Anthropicは次のように述べている。「注意深く作成されたプロンプトと確立されたペルソナを通じて、これらのタスクを日常的な技術的リクエストとしてClaudeに提示することで、脅威アクターはより広範な悪意あるコンテキストにアクセスすることなく、攻撃チェーンの個別コンポーネントをClaudeに実行させることができた」
犯行グループとAnthropicの対応 Anthropicによれば、中国の国家支援を受けたグループがこの作戦の中心にいたとされる。現在「GTG-1002」として追跡されており、国家の支援を受けた潤沢な資金を持つと考えられているこのグループは、そのキャンペーンでClaudeを活用した。しかし、このグループについてはそれ以上のことはほとんど分かっていない。
同社は自社技術の悪用を発見すると、GTG-1002に関連するアカウントを迅速に禁止し、悪意ある活動の検知システムを拡張した。このシステムは、同社が「新種の脅威パターン 」と呼ぶもの、例えばGTG-1002が使用したロールプレーのように、システムを正規の防御ベースの侵入テストのように振る舞わせる手法を発見することが期待される。
Anthropicはまた、自律的サイバー攻撃を阻止するための早期検知対策の試作も進めており、当局および業界関係者にはこの事件が報告された。
加えて、同社はサイバーセキュリティコミュニティー全体に対しても警告を発し、警戒を怠らないよう促している。
Anthropicは次のように述べた。「サイバーセキュリティコミュニティーは、根本的な変化が起きたと想定する必要がある。セキュリティチームは、SOC自動化、脅威検知、脆弱性評価、インシデント対応などの分野でAIを防御に適用し、それぞれの環境で何が機能するかの経験を積むべきだ。そして、敵対的な悪用を防ぐため、AIプラットフォーム全体でのセーフガードへの継続的な投資が必要だ。われわれが説明している技術は脅威の状況全体に拡散していくため、業界での脅威情報共有、改善された検知手法、より強力な安全管理がますます重要になる」