Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 898: Un prétendu LLMjacking cible les services cloud d'IA avec des identifiants volés

Traduit par IA
Description:
Traduit par IA
Des attaquants auraient exploité des identifiants cloud volés, obtenus via un système Laravel vulnérable (CVE-2021-3129), pour abuser de services cloud d'IA, notamment Claude d'Anthropic et AWS Bedrock, dans le cadre d'un stratagème appelé « LLMjacking ». Les attaquants auraient monétisé l'accès via des proxys inverses, faisant grimper les coûts pour les victimes jusqu'à 100 000 dollars par jour. De plus, ils auraient contourné les sanctions, activé les modèles LLM et développé des techniques pour échapper à la détection et à la journalisation.
Editor Notes: Incident 898 presents an editorial challenge in synthesizing events from multiple reports, pointing to the evolution of LLMjacking trends over time. The following is a reconstruction of key incidents outlined in Sysdig's investigative reports: (1) 05/06/2024: Initial publication date LLMjacking report by Sysdig's Alessandro Brucato. Attackers reportedly exploited stolen cloud credentials obtained via a Laravel vulnerability (CVE-2021-3129) to access cloud-hosted LLMs like Anthropic Claude. Monetization allegedly occurred via reverse proxies, potentially costing victims up to $46,000 per day. (2) 07/11/2024: Significant spike in LLMjacking activity reportedly observed, with over 61,000 AWS Bedrock API calls logged in a three-hour window, allegedly generating significant costs to victims. (3) 07/24/2024: A second surge in activity reportedly occurred, with 15,000 additional API calls detected. Attackers are alleged to have escalated the abuse of APIs and developed new scripts to automate LLM interactions. (4) 09/18/2024: Sysdig's second report detailing evolving attacker tactics, including alleged enabling LLMs via APIs (e.g., PutFoundationModelEntitlement) and tampering with logging configurations (e.g., DeleteModelInvocationLoggingConfiguration) to evade detection. Motives reportedly expanded to include bypassing sanctions, enabling access in restricted regions, and role-playing use cases. (5) Ongoing: Sysdig and other researchers continue to observe alleged LLMjacking incidents, reportedly involving other LLMs like Claude 3 Opus and OpenAI systems. Victim costs have allegedly risen to over $100,000 per day with LLM usage, which is reportedly fueling a black market for stolen credentials.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OAI Reverse Proxy Tool Creators et LLMjacking Reverse Proxy Tool Creators developed an AI system deployed by LLMjacking Attackers Exploiting Laravel et Entities engaging in Russian sanctions evasion, which harmed Laravel users , Laravel CVE-2021-3129 users , Cloud LLM users et Cloud LLM service providers.
Systèmes d'IA présumés impliqués: OpenRouter services , OpenAI models , Mistral-hosted models , MakerSuite tools , GCP Vertex AI models , ElevenLabs services , Azure-hosted LLMs , AWS Bedrock-hosted models , Anthropic Claude (v2/v3) et AI21 Labs models

Statistiques d'incidents

ID
898
Nombre de rapports
2
Date de l'incident
2024-05-06
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
LLMjacking : des identifiants cloud volés utilisés dans une nouvelle attaque d'IA
Les dangers croissants du LLMjacking : évolution des tactiques et évasion des sanctions
LLMjacking : des identifiants cloud volés utilisés dans une nouvelle attaque d'IA

LLMjacking : des identifiants cloud volés utilisés dans une nouvelle attaque d'IA

sysdig.com

Les dangers croissants du LLMjacking : évolution des tactiques et évasion des sanctions

Les dangers croissants du LLMjacking : évolution des tactiques et évasion des sanctions

sysdig.com

LLMjacking : des identifiants cloud volés utilisés dans une nouvelle attaque d'IA
sysdig.com · 2024
Traduit par IA

L'équipe de recherche sur les menaces Sysdig (TRT) a récemment observé une nouvelle attaque qui exploitait des identifiants cloud volés afin de cibler dix services de modèles de langage volumineux (LLM) hébergés dans le cloud, connus sous l…

Les dangers croissants du LLMjacking : évolution des tactiques et évasion des sanctions
sysdig.com · 2024
Traduit par IA

Suite à la découverte du LLMjacking par l'équipe de recherche sur les menaces Sysdig (TRT) --- l'utilisation illicite d'un LLM via des identifiants compromis --- le nombre d'attaquants et leurs méthodes a proliféré. Bien qu'il y ait eu une …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO Hack

Jun 2016 · 24 rapports
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Mar 2019 · 1 rapport
Game AI System Produces Imbalanced Game

Game AI System Produces Imbalanced Game

Jun 2016 · 11 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO Hack

Jun 2016 · 24 rapports
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Mar 2019 · 1 rapport
Game AI System Produces Imbalanced Game

Game AI System Produces Imbalanced Game

Jun 2016 · 11 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178