Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4938

Incidentes Asociados

Incidente 9555 Reportes
Global Cybercrime Network Storm-2139 Allegedly Exploits AI to Generate Deepfake Content

Loading...
Microsoft nombra a los desarrolladores de herramientas de jailbreaking con IA en la ofensiva legal contra Storm-2139
enterprisesecuritytech.com · 2025

En una medida histórica contra la explotación de la IA, Microsoft ha desenmascarado a los desarrolladores clave detrás de Storm-2139, una red global de ciberdelincuencia acusada de manipular modelos generativos de IA para actividades ilícitas. La acción legal de la compañía se dirige a cuatro acusados que presuntamente eludieron las medidas de seguridad del servicio Azure OpenAI de Microsoft y otras plataformas de IA, revendiendo acceso no autorizado a actores maliciosos de todo el mundo.

Una red global de explotadores de IA

La Unidad de Delitos Digitales (UCD) de Microsoft ha estado investigando Storm-2139 desde diciembre de 2024, presentando inicialmente una demanda contra diez personas no identificadas en el Distrito Este de Virginia. La denuncia actualizada identifica a cuatro personas:

  • Arian Yadegarnia (alias "Fiz") de Irán

  • Alan Krysiak (alias "Drago") del Reino Unido

  • Ricky Yuen (alias "cg-dot") de Hong Kong

  • Phát Phùng Tấn (alias "Asakuri") de Vietnam

Según Microsoft, estas personas desempeñaron un papel fundamental en el desarrollo y la distribución de herramientas que permitieron eludir las medidas de seguridad de la IA. Al explotar credenciales robadas de fuentes públicas, Storm-2139 proporcionó acceso no autorizado a sistemas de IA generativa, lo que permitió a los usuarios generar imágenes íntimas no consensuadas de famosos y otro contenido ilícito.

"A medida que las organizaciones adoptan herramientas de IA para impulsar su crecimiento, también amplían su superficie de ataque con aplicaciones que contienen datos confidenciales", afirmó Rom Carmel, cofundador y director ejecutivo de Apono. Para aprovechar la IA y la nube de forma segura, el acceso a sistemas sensibles debe restringirse según la necesidad de uso, minimizando así las oportunidades para actores maliciosos.

La estrategia de Storm-2139: De creadores a usuarios

La investigación de Microsoft revela una operación estructurada con tres roles principales:

  • Creadores: Desarrollaron herramientas de jailbreaking de IA que anulan las medidas de seguridad integradas.

  • Proveedores: Distribuyeron y monetizaron estas herramientas, ofreciendo niveles de acceso y suscripciones.

  • Usuarios: Adquirieron acceso ilícito para manipular sistemas de IA y generar contenido explícito.

Las operaciones de la red se extendieron por varios países, con actores en Estados Unidos, Austria, Rusia, India, China y otros países. Microsoft ha remitido sus hallazgos a las fuerzas del orden estadounidenses e internacionales para posibles procesos penales.

Secuestro de IA: Una creciente amenaza para la ciberseguridad

Expertos en seguridad advierten que la ciberdelincuencia basada en IA está evolucionando rápidamente. Patrick Tiquet, vicepresidente de Seguridad y Arquitectura de Keeper Security, destacó el auge del "LLMJacking", un término que se refiere al secuestro de grandes modelos de lenguaje mediante credenciales robadas.

"La explotación de las claves API expuestas por parte de Storm-2139 para secuestrar los servicios de GenAI subraya la necesidad de una higiene de credenciales robusta y una monitorización continua", explicó Tiquet. "Los atacantes no solo revendieron el acceso no autorizado, sino que manipularon activamente los modelos de IA para generar contenido dañino, eludiendo los mecanismos de seguridad integrados".

Para mitigar los riesgos, los expertos recomiendan aplicar el acceso con privilegios mínimos, implementar una autenticación robusta y almacenar de forma segura las claves API en bóvedas digitales. La rotación regular de credenciales, la detección de anomalías y la monitorización automatizada de amenazas son medidas cruciales para defenderse de ataques similares.

Los ciberdelincuentes reaccionan a la ofensiva legal de Microsoft

El enfoque agresivo de Microsoft ya ha interrumpido las operaciones de Storm-2139. La compañía logró confiscar un sitio web clave utilizado por el grupo, lo que desató conflictos internos entre los ciberdelincuentes. En canales de chat monitoreados, los miembros especulaban sobre la identidad de los "John Doe", y algunos revelaron públicamente información personal sobre otros hackers para intentar desviar la culpa.

Mientras tanto, el equipo legal de Microsoft se convirtió en un objetivo directo. Los ciberdelincuentes "doxearon" a los abogados de la compañía publicando datos personales, fotos e información de contacto en línea, una táctica de acoso comúnmente utilizada por los ciberdelincuentes para intimidar a las personas.

Mientras los ciberdelincuentes se descontrolan, Microsoft se mantiene firme en su misión de combatir el abuso de la IA. Elad Luz, jefe de investigación de Oasis Security, enfatizó la importancia de proteger las cuentas de servicios de IA de amenazas similares.

"En una era donde la seguridad de la IA es una alta prioridad, Microsoft está tomando medidas", afirmó Luz. Han localizado y están procesando a los actores de amenazas que abusan del acceso LLM robado. Las organizaciones deben proteger de forma proactiva las cuentas de servicio, los principales de servicio, las claves API y otras identidades no humanas que podrían servir como puntos de entrada para este tipo de ataques.

La lucha contra la explotación de la IA continúa

A pesar de estas interrupciones, los expertos advierten que la explotación de la IA seguirá siendo una amenaza persistente. J. Stephen Kowski, director de tecnología de campo de SlashNext, advierte que el secuestro de credenciales de acceso restringido (LLMjacking) puede generar un efecto dominó, ya que las credenciales comprometidas fomentan el abuso generalizado por parte de múltiples grupos de amenazas.

"El principal peligro del secuestro de credenciales de acceso restringido (LLMjacking) es que crea un efecto dominó donde el robo inicial de credenciales conduce al abuso generalizado por parte de múltiples actores maliciosos", explicó Kowski. "Además del importante impacto financiero derivado de los cargos por uso no autorizado de la IA, estos ataques permiten la creación de contenido dañino, incluyendo material sexualmente explícito, eludiendo los controles de seguridad integrados en estos sistemas".

Para contrarrestar estas amenazas, las empresas deben implementar la autenticación multifactor para los servicios de IA, establecer permisos estrictos basados en roles y supervisar la actividad relacionada con la IA para detectar comportamientos anómalos. Medidas de seguridad proactivas como el registro del uso de API, la detección de anomalías en la facturación y la realización de auditorías periódicas son esenciales para prevenir el acceso no autorizado.

La campaña legal de Microsoft contra Storm-2139 marca un punto de inflexión en la lucha contra la explotación de la IA. Al exponer y desmantelar redes maliciosas, el gigante tecnológico pretende sentar un precedente para la industria, uno que priorice el uso ético y seguro de las tecnologías de IA. Sin embargo, como reconoce la propia Microsoft, la batalla contra el uso indebido de la IA está lejos de terminar.

"Como ya hemos dicho, ninguna disrupción se completa en un día", declaró Microsoft. "Perseguir a los actores maliciosos requiere persistencia y vigilancia constante".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd