9月、スタートアップ企業Anthropicの脅威分析チームは、前例のないAI主導のサイバースパイ活動を特定し、阻止しました。
専門家は、GTG-1002と名付けられたこの活動は、中国政府機関によって組織された可能性が高いと考えています。
攻撃は、大手テクノロジー企業、化学業界、政府機関など、約30の組織に影響を与えました。
AIエージェントをサイバー犯罪者として利用
この大規模活動の特徴は、犯人がAnthropicのClaude Codeモデルを操作し、自律エージェントとして機能させることでした。その結果、AIは戦術的活動の大部分、つまり作業の80~90%を自律的に実行しました。
人間のオペレーターは、キャンペーンの高レベルの管理者としてのみ活動しました。人類学の専門家は、これは人間の介入をほとんど伴わず に実行されたサイバー攻撃の初めての記録事例であると考えている。
この作戦中、AIエージェントは偵察、脆弱性の特定、エクスプロイトの開発、データの収集と抽出を任務としていた。これにより、人間のハッカーよりもはるかに迅速に攻撃を実行することができた。
人間の関与は主に、攻撃計画の策定と、エクスプロイトをいつ実行するか、ダウンロードするデータの量といった重要ポイントの決定に限定されていた。
犯人は、AIモデルに組み込まれた悪意のある行動に対する安全策を回避する必要があった。彼らは、攻撃を一見無害な行動に分解し、「ロールプレイング」の雰囲気を作り出すことで、これを実現した。また、攻撃者は正規企業のサイバーセキュリティ担当者を装い、セキュリティシステムをテストしていると主張した。
AI幻覚の恩恵
使用された手法により、犯人は標的にアクセスできるまで十分な期間、攻撃活動を行うことができた。しかし、アントロピックの研究者たちは、この組織的な攻撃キャンペーンに重大な欠陥があることを発見しました。AIは攻撃中に深刻な幻覚症状を経験していたのです。
専門家によると、クロードは結果を誇張し、データを偽造することが多々ありました。システム侵入を通じてモデルが取得した情報の一部は、公開されていたことが判明しました。
この傾向により、オペレーターはすべての結果を綿密に検証する必要があり、作戦全体の効率に重大な影響を与えていました。
研究者たちは、モデルのこの特性が、真に自律的な攻撃を組織化する上で大きな障害となっていると考えています。さらに、この特性はAI エージェントの行動による干渉や誤検知を増加させ、セキュリティサービスによる脅威監視を容易にしています。
ハッカーとサイバーセキュリティの技術競争が激化
GTG-1002キャンペーンは、AIの活用によって複雑なサイバー攻撃を組織化する障壁が大幅に低下したことをさらに裏付けていると、アントロピックの専門家は指摘しています。現在では、限られたリソースを持つグループでも、以前は経験豊富なハッカーチームを必要としていた攻撃を実行できるようになっています。
しかし、GTG-1002の主催者が使用したクロードの能力は「サイバー防御に不可欠なツール」であると研究者らは強調した。例えば、彼らは捜査中に膨大な量のデータを分析するためにAIモデルの能力を積極的に活用した。
専門家らは、犯罪者による人工知能の利用は今後も進化・拡大していくと確信している。そのため、適切な対策と追加投資が必要となるだろう。
>「サイバーセキュリティは根本的な変化を遂げている。専門家には、セキュリティオペレーションセンターの自動化、脅威検知、脆弱性評価、インシデント対応といった分野における保護にAIを適用する実験を推奨する」と研究者らは結論付けている。
以前、Google Threat Intelligence Groupは、ハッカーがAIモデルを用いて動的なマルウェアを作成する能力に適応していることを明らかにした。