Incidentes Asociados

Microsoft ha identificado a personas de Irán, China, Vietnam y el Reino Unido como los principales actores de un supuesto plan internacional para secuestrar y vender cuentas de Microsoft que podrían eludir las normas de seguridad de las herramientas de IA generativa.
En diciembre, Microsoft solicitó a un tribunal de Virginia la confiscación de la infraestructura y el software de 10 personas anónimas que, según la compañía, dirigían una operación de hacking como servicio que utilizaba claves API robadas de Microsoft para vender acceso a cuentas de Azure OpenAI a terceros en el extranjero. Dichas cuentas se utilizaron posteriormente para generar "contenido dañino", incluyendo miles de imágenes que infringen las normas de seguridad de Microsoft y OpenAI.
Anteriormente, Microsoft afirmó desconocer los nombres ni las identidades de las 10 personas, así como su lugar de residencia, identificándolas únicamente por los sitios web y las herramientas que utilizaban, y afirmando que al menos tres parecían ser proveedores del servicio que residían fuera de Estados Unidos.
En una denuncia enmendada publicada el jueves, la compañía identificó a cuatro personas: Arian Yadegarnia (alias "Fiz") de Irán, Ricky Yuen (alias "cg-dot") de Hong Kong, Phát Phùng Tấn (alias "Asakuri") de Vietnam y Alan Krysiak (alias "Drago") del Reino Unido, como actores clave "en el centro de una red global de ciberdelincuencia" que Microsoft identifica como Storm-2139.
Organigrama de Storm 2319 (Fuente: Microsoft)
Microsoft también afirmó haber identificado a un actor en Illinois y a otro en Florida como parte del esquema, pero se negó a revelar sus nombres "para evitar interferir con posibles investigaciones criminales". La compañía afirmó que está preparando remisiones penales a las autoridades de Estados Unidos y del extranjero.
La compañía no especificó cómo las imágenes generadas violaron las normas de seguridad, pero Steven Masada, asesor general adjunto de la Unidad de Delitos Digitales de Microsoft, indicó en una entrada de blog que al menos algunas eran intentos de crear imágenes falsas de celebridades y figuras públicas.
"No nombramos a celebridades específicas para mantener sus identidades privadas y hemos excluido las imágenes sintéticas y los mensajes de nuestros documentos para evitar la circulación de contenido dañino", escribió Masada en un blog el jueves.
La acción judicial inicial parece haber generado pánico en el grupo, ya que Microsoft compartió capturas de pantalla de foros de chat donde los miembros especulaban sobre la identidad de otras personas mencionadas en la demanda. El grupo también publicó información personal y fotos del abogado de Microsoft a cargo del caso.
Algunos de los mencionados también parecen haber contactado a Microsoft para intentar culpar a otros miembros del grupo o a terceros.
Un mensaje recibido por los abogados de Microsoft identificó un servidor de Discord presuntamente administrado por Krysiak, que ofrecía acceso a Azure por más de 100 dólares, junto con enlaces a páginas de GitHub para su software y enlaces a otros recursos. El usuario suplicó a Microsoft que investigara y se ofreció a proporcionar más información.
"Los veteranos a los que intentas demandar ni siquiera venden nada. Estos sí", escribió el usuario, añadiendo posteriormente: "Esta es la empresa real, a diferencia del otro grupo que buscas".
Otro correo electrónico enviado a los abogados de Microsoft les aconsejaba "buscar a un tipo llamado Drago".
"Él es el tipo que buscas; usa y vende Azure", escribió la cuenta de correo electrónico whistling@dmc[]chat. Captura de pantalla de un mensaje enviado a los abogados de Microsoft para intentar culpar a terceros del ataque informático a Azure (Fuente: Microsoft)
Según la denuncia original de la empresa, los individuos "explotaron credenciales de clientes expuestas, extraídas de fuentes públicas, para acceder ilegalmente a cuentas con ciertos servicios de IA generativa".
"Luego, alteraron las capacidades de estos servicios y revendieron el acceso a otros actores maliciosos, proporcionando instrucciones detalladas sobre cómo generar contenido dañino e ilícito, incluyendo imágenes íntimas no consensuadas de famosos y otro contenido sexualmente explícito", afirma la denuncia.
A medida que empresas como Microsoft y OpenAI desarrollan y venden herramientas de IA generativa, gobiernos y grupos de la sociedad civil las han presionado para que desarrollen protecciones técnicas que dificulten el uso indebido o el abuso de sus modelos para crear deepfakes, difundir desinformación o divulgar información potencialmente dañina, como por ejemplo, cómo fabricar una bomba o crear malware.
Si bien algunos grupos de la sociedad civil estadounidense han criticado a las empresas de inteligencia artificial por no cumplir con las medidas de seguridad y la falta de transparencia en torno a las promesas públicas de evitar que sus herramientas se utilicen para influir en las elecciones, los funcionarios de inteligencia estadounidenses indicaron el año pasado que los actores extranjeros que buscaban interferir en las elecciones estadounidenses estaban teniendo dificultades obteniendo acceso a herramientas de inteligencia artificial generativa comercial de alta calidad para impulsar sus campañas de desinformación.