Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 898: Alleged LLMjacking Targets AI Cloud Services with Stolen Credentials

概要: Attackers reportedly exploited stolen cloud credentials obtained through a vulnerable Laravel system (CVE-2021-3129) to allegedly abuse AI cloud services, including Anthropic’s Claude and AWS Bedrock, in a scheme referred to as “LLMjacking.” The attackers are said to have monetized access through reverse proxies, reportedly inflating victim costs to as much as $100,000 per day. Additionally, they allegedly bypassed sanctions, enabled LLM models, and evolved techniques to evade detection and logging.
Editor Notes: Incident 898 presents an editorial challenge in synthesizing events from multiple reports, pointing to the evolution of LLMjacking trends over time. The following is a reconstruction of key incidents outlined in Sysdig's investigative reports: (1) 05/06/2024: Initial publication date LLMjacking report by Sysdig's Alessandro Brucato. Attackers reportedly exploited stolen cloud credentials obtained via a Laravel vulnerability (CVE-2021-3129) to access cloud-hosted LLMs like Anthropic Claude. Monetization allegedly occurred via reverse proxies, potentially costing victims up to $46,000 per day. (2) 07/11/2024: Significant spike in LLMjacking activity reportedly observed, with over 61,000 AWS Bedrock API calls logged in a three-hour window, allegedly generating significant costs to victims. (3) 07/24/2024: A second surge in activity reportedly occurred, with 15,000 additional API calls detected. Attackers are alleged to have escalated the abuse of APIs and developed new scripts to automate LLM interactions. (4) 09/18/2024: Sysdig's second report detailing evolving attacker tactics, including alleged enabling LLMs via APIs (e.g., PutFoundationModelEntitlement) and tampering with logging configurations (e.g., DeleteModelInvocationLoggingConfiguration) to evade detection. Motives reportedly expanded to include bypassing sanctions, enabling access in restricted regions, and role-playing use cases. (5) Ongoing: Sysdig and other researchers continue to observe alleged LLMjacking incidents, reportedly involving other LLMs like Claude 3 Opus and OpenAI systems. Victim costs have allegedly risen to over $100,000 per day with LLM usage, which is reportedly fueling a black market for stolen credentials.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: OAI Reverse Proxy Tool Creators と LLMjacking Reverse Proxy Tool Creators developed an AI system deployed by LLMjacking Attackers Exploiting Laravel と Entities engaging in Russian sanctions evasion, which harmed Laravel users , Laravel CVE-2021-3129 users , Cloud LLM users と Cloud LLM service providers.
関与が疑われるAIシステム: OpenRouter services , OpenAI models , Mistral-hosted models , MakerSuite tools , GCP Vertex AI models , ElevenLabs services , Azure-hosted LLMs , AWS Bedrock-hosted models , Anthropic Claude (v2/v3) と AI21 Labs models

インシデントのステータス

インシデントID
898
レポート数
2
インシデント発生日
2024-05-06
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
LLMjacking: 盗まれたクラウド認証情報が新たな AI 攻撃に利用される
LLM ジャッキングの危険性の増大: 進化する戦術と制裁回避
LLMjacking: 盗まれたクラウド認証情報が新たな AI 攻撃に利用される

LLMjacking: 盗まれたクラウド認証情報が新たな AI 攻撃に利用される

sysdig.com

LLM ジャッキングの危険性の増大: 進化する戦術と制裁回避

LLM ジャッキングの危険性の増大: 進化する戦術と制裁回避

sysdig.com

LLMjacking: 盗まれたクラウド認証情報が新たな AI 攻撃に利用される
sysdig.com · 2024
自動翻訳済み

Sysdig 脅威調査チーム (TRT) は最近、盗まれたクラウド認証情報を利用して 10 個のクラウドホスト型大規模言語モデル (LLM) サービスを標的とする LLMjacking と呼ばれる新しい攻撃を確認しました。認証情報は、Laravel の脆弱なバージョン (CVE-2021-3129) を実行しているシステムという、よく知られた標的から取得されました。LLM ベースの人工知能 (AI) システムに対する攻撃は頻繁に議論されていますが、ほとんどはプロンプトの悪用と…

LLM ジャッキングの危険性の増大: 進化する戦術と制裁回避
sysdig.com · 2024
自動翻訳済み

Sysdig 脅威調査チーム (TRT) による LLMjacking --- 侵害された認証情報による LLM の不正使用 --- の発見に続いて、攻撃者の数とその手法が急増しました。攻撃が増加する中、Sysdig TRT は、攻撃がどのように進化したか、また、攻撃者の動機を詳しく調査しました。動機は、無償での個人使用から、大規模言語モデル (LLM) サービスによって禁止された人々や制裁対象国の組織にアクセス権を販売することまで多岐にわたります。今年初めの初期調査では、ア…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO (organization)

Jun 2016 · 24 レポート
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

AI Incident Database Incidents Converted to Issues

Mar 2019 · 1 レポート
Game AI System Produces Imbalanced Game

6 goof-ups that show AI is still in its diapers

Jun 2016 · 11 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO (organization)

Jun 2016 · 24 レポート
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

AI Incident Database Incidents Converted to Issues

Mar 2019 · 1 レポート
Game AI System Produces Imbalanced Game

6 goof-ups that show AI is still in its diapers

Jun 2016 · 11 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df