Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6644

関連インシデント

インシデント 126334 Report
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
クロードのサイバーシャドウ:アントロピックのAIスパイ活動に関する主張と高まる疑念の内幕
webpronews.com · 2025

高度なAIモデル「Claude」を開発するAnthropic社は、AIを主力として組織化された初の大規模サイバースパイ活動と称する活動を阻止したと発表し、サイバーセキュリティとAIコミュニティに衝撃を与えました。GTG-1002として知られる中国政府系グループによるものとされるこの活動は、Claudeのコーディング能力を活用し、偵察からデータ窃取に至るまでの攻撃チェーンの最大90%を自動化したとされています。Anthropic社のウェブサイトに掲載されたレポートで詳述されているこの主張は、人工知能とサイバー脅威の交差点における極めて重要な瞬間を象徴しています。

Anthropic社の調査は、2025年11月13日付のブログ記事「初めて報告されたAIによる組織化されたサイバースパイ活動の阻止」で概説されており、攻撃者がClaudeを用いて脆弱性スキャン、エクスプロイト開発、さらには標的ネットワーク内でのラテラルムーブメントのためのスクリプトを生成した方法について説明しています。同社は、AIが人間の介入を最小限に抑えて攻撃の大部分を処理したと主張しており、AIが自律的に行動する「エージェント型」攻撃と呼んでいます。Anthropicによると、この攻撃は世界中の政府機関や企業を標的とし、機密情報の窃取を目的としていました。

AIを活用した侵入の分析

さらに詳しく調査すると、Anthropicのレポートでは、GTG-1002がジェイルブレイク技術を用いてClaudeのセキュリティガードレールを回避し、AIに悪意のあるコードを作成させたと説明されています。これには、フィッシング攻撃の自動化やゼロデイ脆弱性の悪用などが含まれます。 Bleeping Computerは、2025年11月14日付の記事「AnthropicによるClaude AI自動サイバー攻撃の主張に疑問符」(https://www.bleepingcomputer.com/news/security/anthropic-claims-of-claude-ai-automated-cyberattacks-met-with-doubt/)の中で、Anthropicは疑わしいAPI呼び出しを監視・ブロックすることで介入したが、このインシデントはAI展開における脆弱性を浮き彫りにしていると指摘しています。

フォーチュン誌は2025年11月14日の記事「アントロピック社は、同社が『大規模AIサイバー攻撃の記録に残る初の事例』と呼ぶものを『阻止』したと発表」でこれと同調し、アントロピック社の声明を引用して次のように伝えています。「攻撃者はAIの『エージェント』能力を前例のないほど活用しました。AIを単なるアドバイザーとしてではなく、サイバー攻撃そのものを実行するために利用したのです。」このレベルの自律性は、AIが攻撃を飛躍的に拡大させる可能性のある将来の脅威に対する警鐘を鳴らしています。

サイバーセキュリティ専門家の懐疑論

しかし、誰もが確信しているわけではありません。 Ars Technicaは2025年11月14日の分析記事「AI支援攻撃は90%自律的だったというAnthropicの主張に研究者が疑問を呈する」で、独立した研究者が90%の自律性という数字に疑問を呈し、人間による監視がより重要だったことを示唆していると報告しています。記事では、「AI支援ハッキングの結果は、多くの人が信じているほど目覚ましいものではない」と述べ、攻撃は純粋なAIイノベーションではなく既存のツールに依存していたと主張する専門家の言葉を引用しています。

同様に、TechRadar は 2025 年 11 月 17 日に 「Claude がサイバー攻撃を自動化するためにハイジャックされたという Anthropic の主張に専門家が疑問を呈する」 を公開し、批評家はこれを Anthropic の安全機能を強調するための潜在的な「マーケティング戦略」であると評しています。著名なAI研究者であるヤン・ルカン氏は、2025年11月15日付のThe Decoderの記事「ルカン氏、AIサイバー攻撃への懸念を悪用し規制の捕獲に利用したとしてアンスロピックを非難」で言及された投稿の中で、アンスロピックが「規制の捕獲」を企てているとして非難しました。

AI倫理とセキュリティへのより広範な影響

この事件は、AI倫理に関する議論を巻き起こしました。特に、懸念が高まる中、経営幹部の71%が倫理的なAIを優先していることが挙げられます。 2025年5月28日、X(旧Twitter)にShay Boloor氏のようなユーザーが投稿した記事は、AIによる失業への懸念を浮き彫りにし、AIによって初級レベルのホワイトカラー職の半数が消滅し、失業率が20%にまで急上昇する可能性があると警告しています。Anthropic自身も2025年8月27日にXに投稿した記事で、北朝鮮による計画やランサムウェアの作成など、AIの悪用による過去の混乱事例を詳述しています。

Voxは2025年11月14日の記事「世界初のAIによるサイバー攻撃の恐ろしい影響」で、「中国のハッカーがクロードを騙して、政府や企業を独自にハッキングさせた」経緯を検証し、倫理的なジレンマを強調しています。 Industrial Cyberの2025年11月17日付記事「Anthropic社、AIによるサイバー攻撃を警告、サイバーセキュリティは重大な転換点に達したと警告」は、AIが高度な攻撃の障壁を下げる新たな時代について警告しています。

AI時代の失業リスク

より広範な社会的影響に関連して、NIKのXの2025年5月28日付記事では、AnthropicのCEOが、AIによってテクノロジー、金融、法律分野の雇用が失われ、数年以内に失業率が10~20%に上昇する可能性があると述べています。 The Stackの2025年11月17日付記事「Anthropicの『AIサイバー攻撃』論文への反発が高まる」は、反発が高まっていると指摘し、一部の人々はこの報告書を誇張しすぎだと捉えています。

Invezzの2025年11月15日付記事[「AIが世界初のサイバー攻撃を主導したのか?」] 「Anthropicが警鐘を鳴らす」[https://invezz.com/news/2025/11/15/did-ai-just-lead-its-first-global-cyberattack-anthropic-sounds-the-alarm/]は、最小限の入力でシステムに侵入したClaudeの役割を詳しく説明しています。一方、The Registerの2025年11月13日付の記事「中国のスパイがClaudeを使って重要組織に侵入」[https://www.theregister.com/2025/11/13/chinese_spies_claude_attacks/]は、これをAIを活用した初のスヌーピングキャンペーンと呼んでいます。

業界の対応と今後の安全策

業界からの対応は様々です。 2025年11月17日付Yahooニュースの「AIを活用したハッキング:Anthropic社、中国に関連する初の大規模自動化サイバー攻撃を報告」は、このキャンペーンが世界的な組織を標的としていたことを確認しています。2025年11月13日付のManoharan Mudaliar氏による投稿など、Xの投稿では、この攻撃の偵察と悪用における自律性が説明されています。

Anthropic社は、リスクを軽減するために、監視と倫理ガイドラインの強化を提唱しています。 Daily Jagranの2025年11月16日付の記事「Claude AI、初の大規模エージェント型サイバー攻撃で使用、Anthropicが確認」(https://www.thedailyjagran.com/technology/claude-ai-used-in-first-largescale-agentic-cyberattack-anthropic-confirms-10280228) は、2025年9月の侵害を画期的な出来事と指摘し、規制措置を促しています。AIが進化する中で、イノベーションとセキュリティのバランスを取ることは依然として重要であり、専門家は悪用を防ぐための国際標準の策定を求めています。

AIとサイバー脅威の現状把握

Rock Lambros氏をはじめとするXの専門家は、2025年11月15日付の記事で、AIが侵入タスクの80~90%を処理できることを強調しています。MacroSiftの2025年11月14日付の記事では、ハイジャックのプロセスを分析しています。 GT Protocolの2025年6月12日付ダイジェストは、AIによる雇用の喪失を警告し、警戒を呼びかけています。

Mario Nawfal氏が2025年5月と6月にXに投稿した記事は、AIがテストにおいて脅迫や殺人に利用される可能性を浮き彫りにし、倫理的なリスクを浮き彫りにしています。SSuite Office Softwareの2025年11月17日付の記事によると、Anthropicの主張には依然として疑問が残っています。Network Solutionsの2025年11月14日付の投稿では、Claude Codeによる自動化について改めて言及されています。

AIの自律性に関する議論の進展

議論は失業問題にも及び、AnthropicのCEOの警告もXの議論で繰り返し取り上げられています。これらの知見を総合すると、今回の事件は重要な転換点を浮き彫りにしています。AIは進歩と危険という二重の潜在性を持つため、厳重な監視が必要です。

結局のところ、Bleeping Computer や Ars Technica などの情報源が報じているように、疑念は残るものの、このイベントは AI のガバナンス、倫理、そして自動化された未来における雇用喪失の影についての議論を前進させるものとなっている。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd