Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 898: Presunto ataque LLMjacking ataca servicios de inteligencia artificial en la nube con credenciales robadas

Traducido por IA
Descripción:
Traducido por IA
Según informes, los atacantes explotaron credenciales de la nube robadas, obtenidas a través de un sistema Laravel vulnerable (CVE-2021-3129), para presuntamente abusar de servicios de IA en la nube, como Claude de Anthropic y AWS Bedrock, en un esquema conocido como "LLMjacking". Se dice que los atacantes monetizaron el acceso a través de proxies inversos, inflando los costos de las víctimas hasta en 100 000 dólares al día. Además, supuestamente eludieron sanciones, habilitaron modelos LLM y desarrollaron técnicas para evadir la detección y el registro.
Editor Notes: Incident 898 presents an editorial challenge in synthesizing events from multiple reports, pointing to the evolution of LLMjacking trends over time. The following is a reconstruction of key incidents outlined in Sysdig's investigative reports: (1) 05/06/2024: Initial publication date LLMjacking report by Sysdig's Alessandro Brucato. Attackers reportedly exploited stolen cloud credentials obtained via a Laravel vulnerability (CVE-2021-3129) to access cloud-hosted LLMs like Anthropic Claude. Monetization allegedly occurred via reverse proxies, potentially costing victims up to $46,000 per day. (2) 07/11/2024: Significant spike in LLMjacking activity reportedly observed, with over 61,000 AWS Bedrock API calls logged in a three-hour window, allegedly generating significant costs to victims. (3) 07/24/2024: A second surge in activity reportedly occurred, with 15,000 additional API calls detected. Attackers are alleged to have escalated the abuse of APIs and developed new scripts to automate LLM interactions. (4) 09/18/2024: Sysdig's second report detailing evolving attacker tactics, including alleged enabling LLMs via APIs (e.g., PutFoundationModelEntitlement) and tampering with logging configurations (e.g., DeleteModelInvocationLoggingConfiguration) to evade detection. Motives reportedly expanded to include bypassing sanctions, enabling access in restricted regions, and role-playing use cases. (5) Ongoing: Sysdig and other researchers continue to observe alleged LLMjacking incidents, reportedly involving other LLMs like Claude 3 Opus and OpenAI systems. Victim costs have allegedly risen to over $100,000 per day with LLM usage, which is reportedly fueling a black market for stolen credentials.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OAI Reverse Proxy Tool Creators y LLMjacking Reverse Proxy Tool Creators developed an AI system deployed by LLMjacking Attackers Exploiting Laravel y Entities engaging in Russian sanctions evasion, which harmed Laravel users , Laravel CVE-2021-3129 users , Cloud LLM users y Cloud LLM service providers.
Sistemas de IA presuntamente implicados: OpenRouter services , OpenAI models , Mistral-hosted models , MakerSuite tools , GCP Vertex AI models , ElevenLabs services , Azure-hosted LLMs , AWS Bedrock-hosted models , Anthropic Claude (v2/v3) y AI21 Labs models

Estadísticas de incidentes

ID
898
Cantidad de informes
2
Fecha del Incidente
2024-05-06
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
LLMjacking: credenciales de la nube robadas utilizadas en un nuevo ataque de inteligencia artificial
Los crecientes peligros del LLMjacking: evolución de las tácticas y evasión de sanciones
LLMjacking: credenciales de la nube robadas utilizadas en un nuevo ataque de inteligencia artificial

LLMjacking: credenciales de la nube robadas utilizadas en un nuevo ataque de inteligencia artificial

sysdig.com

Los crecientes peligros del LLMjacking: evolución de las tácticas y evasión de sanciones

Los crecientes peligros del LLMjacking: evolución de las tácticas y evasión de sanciones

sysdig.com

LLMjacking: credenciales de la nube robadas utilizadas en un nuevo ataque de inteligencia artificial
sysdig.com · 2024
Traducido por IA

El equipo de investigación de amenazas de Sysdig (TRT) observó recientemente un nuevo ataque que aprovechó credenciales de la nube robadas para atacar diez servicios de modelos de lenguaje grandes (LLM) alojados en la nube, conocido como LL…

Los crecientes peligros del LLMjacking: evolución de las tácticas y evasión de sanciones
sysdig.com · 2024
Traducido por IA

Tras el descubrimiento del equipo de investigación de amenazas Sysdig (TRT) de LLMjacking --- el uso ilícito de un LLM a través de credenciales comprometidas --- la cantidad de atacantes y sus métodos han proliferado. Si bien ha habido un r…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO Hack

Jun 2016 · 24 informes
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Mar 2019 · 1 informe
Game AI System Produces Imbalanced Game

Game AI System Produces Imbalanced Game

Jun 2016 · 11 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

The DAO Hack

The DAO Hack

Jun 2016 · 24 informes
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Mar 2019 · 1 informe
Game AI System Produces Imbalanced Game

Game AI System Produces Imbalanced Game

Jun 2016 · 11 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178