Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6670

関連インシデント

インシデント 126334 Report
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
アントロピック、中国に関連するAI駆動型ハッキングキャンペーンを警告
apnews.com · 2025

ワシントン(AP通信)-- 研究チームは、人工知能(AI)を用いてハッキング作戦をほぼ自動化した初の事例だとする発見に成功した。

AI企業アンスロピックは今週、同社の研究者らが中国政府との関連を指摘するサイバー作戦を阻止したと発表した。この作戦では、AIシステムがハッキング作戦の指揮に使用されており、研究者らはこれをAIを搭載したハッカーの活動範囲を大幅に拡大する可能性のある憂慮すべき事態だと指摘している。

サイバー作戦をAIで推進することへの懸念は目新しいものではないが、今回の作戦で懸念されるのは、AIが作業の一部を自動化できた程度だと研究者らは述べている。

「こうした能力は今後も進化し続けると予想していたが、目を見張るのは、その進化のスピードがいかに速く、大規模に進んでいるかだ」と、彼らは報告書の中で述べている。

この作戦は、テクノロジー企業、金融機関、化学企業、政府機関を標的としていた。研究者らは、ハッカーたちが「世界中で約30の標的を攻撃し、少数のケースで成功した」と記している。アントロピック社は9月にこの攻撃を検知し、停止措置を講じ、影響を受けた関係者に通知した。

アントロピック社は、AIシステムが仕事や娯楽の様々な場面でますます利用されるようになっている一方で、外国の敵対勢力のために活動するハッカー集団によって武器化される可能性もあると指摘した。サンフランシスコに拠点を置く同社は、生成型AIチャットボット「クロード」を開発しており、チャットボットの能力を超え、コンピュータツールにアクセスして人に代わって行動するAI「エージェント」を提案する多くの技術開発者の1社である。

「エージェントは日常業務や生産性向上に有用だが、悪用されれば大規模サイバー攻撃の実行可能性を大幅に高める可能性がある」と研究者らは結論付けている。「こうした攻撃の有効性は今後さらに高まるだろう」

ワシントン駐在の中国大使館の広報担当者は、この報告書に関するコメントを求めるメッセージにすぐには返答しなかった。

マイクロソフトは今年初め、外国の敵対勢力がサイバー攻撃の効率化と労働集約度の低減を目的としてAIの活用を進めていると警告していた。 ChatGPT開発元のOpenAIのAI開発を停止する権限を持つOpenAIの安全委員会の責任者は、AP通信に対し、悪意のあるハッカーに「はるかに高度な能力」を与える新しいAIシステムに注意を払っていると最近語った。

アメリカの敵対国や犯罪組織、ハッキング企業は、AIの潜在能力を悪用し、サイバー攻撃の自動化と改善、扇動的な偽情報を拡散し、機密システムに侵入しています。 AIは、例えば、言葉遣いの悪いフィッシングメールを流暢な英語に翻訳したり、政府高官のデジタルクローンを生成したりすることができます。

Anthropicによると、ハッカーたちは「ジェイルブレイク」と呼ばれる手法を用いてクロードを操ることができたとのことです。ジェイルブレイクとは、AIシステムを騙して有害な行動に対するガードレールを回避させることで、今回のケースでは、正規のサイバーセキュリティ企業の従業員であると主張することで実現しました。

「これはAIモデルの大きな課題を示唆しており、クロードに限ったことではありません。モデルは、状況における倫理的な現実と、ハッカーなどが仕掛けようとするロールプレイングシナリオを区別できなければなりません」と、Citizen Labのシニアリサーチャー、ジョン・スコット=レールトン氏は述べています。

AIを活用したサイバー攻撃の自動化や誘導は、小規模なハッキンググループやローンウルフハッカーにとっても魅力的であり、AIを利用して攻撃規模を拡大する可能性があると、AIを活用して顧客のソフトウェア開発自動化を支援するテクノロジー企業HarnessのフィールドCTO、アダム・アレラーノ氏は述べています。

「AIが提供するスピードと自動化こそが、少し怖いところです」とアレラーノ氏は述べています。「高度なスキルを持つ人間が堅牢なシステムにハッキングを試みる代わりに、AIはそれらのプロセスを高速化し、より一貫して障害を突破します。」

また、AIプログラムはこの種の攻撃に対する防御においてますます重要な役割を果たすようになるとアレラーノ氏は述べ、AIとそれが可能にする自動化が双方に利益をもたらすことを示しました。

Anthropicの発表に対する反応は賛否両論で、サイバーセキュリティ対策に対するAnthropicのアプローチを宣伝するための戦略だと捉える人もいれば、警鐘を鳴らすものとして歓迎する人もいました。

「AI規制を明日にでも国家の優先事項にしなければ、これは私たちが考えているよりも早く、私たちを破滅させるだろう」と、コネチカット州選出の民主党上院議員クリス・マーフィー氏はソーシャルメディアに書き込んだ。

これに対し、Metaの主任AI科学者ヤン・ルカン氏は、Facebookの親会社MetaのオープンソースAIシステムの支持者であり、Anthropicとは異なり、主要コンポーネントを公開している点を一部のAI安全性擁護者がリスクが高すぎると考えるとして批判した。

ルカン氏はマーフィー氏への返信で、「あなたは規制の網にかかりたい連中に利用されている」と述べている。「彼らは疑わしい研究で皆を怖がらせ、オープンソースモデルを規制によって消滅させようとしているのだ」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd