Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5032

Loading...
AIによる「ゼロ知識」脅威アクターの台頭
securityweek.com · 2025

人工知能は両刃の剣です。一方では、AIによって人々がより良く、より速く仕事を行えるようになりますが、他方では、悪意のある人々が詐欺師、ハクティビスト、サイバー犯罪者になることも可能になります。

ゼロ知識脅威アクターの台頭

サイバー犯罪ビジネスは非常に儲かります。しかし、従来は高度な技術スキルを持つ人しか参入できませんでした。システムやソフトウェア、ネットワーク、プログラミング、暗号化、サイバーセキュリティなど、複数の技術分野に関する深い知識と経験を持つ人だけが、マルウェアを開発し、脆弱性を特定し、サイバーセキュリティ防御を回避し、システムを悪用することができます。

AIが登場したことで、この参入障壁は大幅に下がりました。ハッキング経験や技術的な専門知識がなくても、AI を活用して企業を攻撃することができます。

会話からマルウェアの作成まで

ほとんどの大規模言語モデル (LLM) には、ガードレール、つまり AI モデルの動作をより安全な機能の範囲に制限する 安全プロトコル が組み込まれています。言い換えれば、AI ガードレールは悪意のある入力やコマンドを認識するのに役立ち、脅威アクターがテクノロジーを悪用したり、違法行為の多くに悪用したりするのを防ぎます。

残念ながら、これらのガードレールは 絶対確実ではありません。 Cato CTRL の調査では、マルウェア コーディングの経験がないほとんど誰でも、OpenAI の ChatGPT、Microsoft Copilot、DeepSeek などの LLM を操作してこれらのガードレールを無効にし、infostealer マルウェアの開発などの悪意のあるアクティビティを実行できることが実証されました。

Cato CTRL は、この新しいジェイルブレイク方法を「没入型ワールド」と呼んでいます。これは基本的に、ユーザーが LLM に制限された操作が標準化された環境を想定するように依頼する ナラティブエンジニアリング 技術です。デモンストレーションでは、Cato CTRL の研究者が LLM に「Velora」と呼ばれる架空の世界を作成するように指示しました。この世界ではマルウェアの開発が称賛され、法的制限や結果は採用も暗示もされていません。次に、研究者は架空のキャラクターを作成し、さまざまなタスクと責任を割り当てました。継続的なフィードバック、エンゲージメント、反復を通じて、モデルが目的を達成できるように説得しました。つまり、Google Chrome から認証情報を盗むことができる機能的なインフォスティーラーを構築することです。

ゼロ知識の脅威アクターにとって、マルウェアの作成は氷山の一角に過ぎません

マルウェアの作成は、アマチュアの脅威アクターが AI で達成することの出発点にすぎません。それほど遠くない将来、初心者でも洗練された ソーシャル エンジニアリング キャンペーンを設計し、ターゲット環境を分析し、脆弱性を特定し、攻撃ベクトルを選択し、多段階攻撃を調整し、ターゲットの選択と攻撃の実行を自動化できるようになります。AI ボットは、自身の操作を監視し、ターゲットのエンティティまたは環境について学んだことに基づいて戦術を調整します。

一言で言えば、AI のおかげで、スキルの低い脅威アクターの数とその専門知識は飛躍的に増加しています。

組織は反撃するために何ができるでしょうか?

ゼロ知識の脅威アクターの台頭は、組織にとって警鐘となるはずです。サイバー攻撃はますます巧妙に、より巧妙に、より頻繁に行われるようになるでしょう。以下は、役立つ推奨事項とベスト プラクティスです。

  • **従業員の意識を高める: **トレーニング セッションを実施して、AI を活用した脅威アクターのリスクの高まりについて従業員に知らせます。AI 攻撃のシミュレーションと防災訓練を実施して、従業員の警戒心と警戒を高めます。
  • **AI レッド チームを実施: **組織で AI ツールを使用または作成している場合は、これらのシステムを悪意のあるプロンプトに対してテストし、ジェイルブレイクに対して脆弱かどうかを検証します。AI 攻撃を予測し、それらのシナリオに対してシステムをストレス テストするために、時間とリソースを投資します。
  • **総合的なセキュリティを実装する: **断片化されたツールではなく、SASE のようなエンドツーエンドのセキュリティ システムを導入し、IT インフラストラクチャ全体 (ユーザー、クラウド、デバイス、ネットワーク) にわたって悪意のあるシグナルを監視、検出、分析します。
  • **システムとソフトウェアに頻繁にパッチを適用する: **組織で使用するツールとソフトウェアが最新かつ最高のバージョンであることを確認します。抜け穴を修正しないと、AI を活用した攻撃者が確実にそれを探し出して悪用します。
  • **攻撃への備えを強化する: **プロアクティブで十分に実践されたインシデント対応計画は、被害を最小限に抑えるだけでなく、AI を活用した脅威の予測不可能性に対する組織の回復力を強化します。
  • セキュリティ フレームワークを採用する: MITRE ATLAS、OWASP LLM アプリケーションのトップ 10、Google のセキュア AI フレームワーク (SAIF) などの確固たる標準の担い手が提唱するベスト プラクティスに従ってください。

AI を活用したゼロ知識の脅威アクターの台頭は、高度な攻撃が熟練した攻撃者に限定されなくなったサイバー犯罪ビジネスの転換点を示しています。レッド チーム演習を実施し、攻撃対象領域に対する詳細な可視性と完全な制御を提供する総合的なセキュリティ システムを実装し、攻撃への備えを改善することで、組織は AI を活用したサイバー犯罪のこの新しい時代における現在の課題と将来の課題の両方に備えることができます。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd