ハッカーは、人気の人工知能チャットボットを利用して、AIを武器化したサイバー犯罪活動を実行しました。Claude AI Codeを副操縦士としてだけでなく、攻撃チェーン全体の推進役として展開しました。
Antropic AIの8月の脅威インテリジェンスレポートで詳述されているキャンペーンでは、攻撃者はAntropicのAIコーディングエージェントであるClaude Codeを活用し、医療、救急サービス、政府、宗教機関などの分野の17の異なる組織に対して攻撃作戦を実行しました。しかし、これは典型的なランサムウェア攻撃とは異なり、戦略的かつ自動化された実行を伴う、組織化されたAI主導の恐喝キャンペーンでした。
攻撃者はデータを暗号化するのではなく、盗んだ情報を公開すると脅し、50万ドルを超える身代金を要求することもありました。 Anthropicはこのアプローチを「バイブハッキング」と呼んでおり、これはまさにパラダイムシフトと言えるでしょう。なぜでしょうか?AIエージェントが偵察、認証情報の収集、侵入、身代金の計算、さらには心理的な意図を汲み取った恐喝メッセージの作成までを、人間の介入を最小限に抑えて処理したからです。
Claudeの指揮
Claude Codeは数千のVPNエンドポイントをスキャンし、脆弱なホストを特定し、ネットワーク侵入を開始しました。AIは、被害組織の個人情報、財務情報、医療記録など、抽出可能なデータの収集、プロファイリング、優先順位付けを支援しました。
Claudeはその後、盗み出した財務データセットを分析し、最適な身代金レベルを決定しました。そして、視覚的に脅威となるHTML形式の恐喝文書を作成し、被害者のマシンに直接組み込むことに成功しました。
AIエージェントは最終的に、Chiselの改良版を含む難読化されたトンネリングツールを生成し、新たなプロキシ手法を開発しました。検出されると、防御スキャナーを回避するために、アンチデバッグルーチンやファイル名の偽装まで作成しました。
AIを活用したサイバー犯罪の危険な傾向
Anthropicが指摘するように、これは根本的な変化を示しています。AIはもはや支援ツールではなく、まもなく独立した攻撃者となり、多段階のサイバーキャンペーンを実行できるようになります。この報告書は、この脅威モデルによって大規模なサイバー犯罪に対する技術的障壁が大幅に低下することを明確にしています。プロンプトに精通した人なら誰でも、複雑でカスタマイズされた自律型攻撃を実行できるようになり、報告書はこのような攻撃が今後ますます一般的になるだろうと予測しています。
Antropicはまた、「AIの活用を考慮したサイバー脅威を評価するための新たなフレームワークの必要性」も示唆しました。
Anthropicは、攻撃者のアカウントを禁止し、カスタマイズされた検出分類ツールを導入し、同様の悪用を防ぐためにパートナーと技術指標を共有することで対応しました。
Anthropicのレポート詳細では、Claudeの他の悪用事例として、北朝鮮による偽IT労働者詐欺、AI生成ペルソナを用いた雇用詐欺、そしてコーディングの専門知識を持たない攻撃者によってAIによって生成された新たな「サービスとしてのランサムウェア」などが挙げられています。