Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5520

Incidentes Asociados

Incidente 114123 Reportes
Purported AI Voice Cloning Used to Impersonate Secretary of State Marco Rubio

Loading...
Los delincuentes de deepfake se hacen pasar por Marco Rubio para descubrir secretos del gobierno
malwarebytes.com · 2025

Los ataques deepfake no solo se centran en el reclutamiento y el fraude bancario; ahora han alcanzado las más altas esferas del gobierno. Esta semana surgió la noticia de un ataque impulsado por IA que suplantó la identidad del secretario de Estado estadounidense, Marco Rubio. Las autoridades desconocen quién está detrás del incidente.

Un cable del Departamento de Estado de EE. UU. visto publicado por el Washington Post advertía que alguien suplantó la voz y el estilo de escritura de Rubio en mensajes de voz y texto en la aplicación de mensajería Signal. Según se informa, el atacante intentó acceder a información o cuentas contactando a varios funcionarios del gobierno en nombre de Rubio. Entre sus objetivos se encontraban tres ministros de Asuntos Exteriores, un gobernador estadounidense y un congresista estadounidense, según el cable.

El atacante creó una cuenta de Signal con el nombre de usuario 'Marco.Rubio@state.gov' e invitó a sus objetivos a comunicarse a través de Signal.

El factor de inteligencia artificial en los ataques probablemente se refiere a deepfakes. Se trata de una forma de mimetismo digital en la que los atacantes utilizan grabaciones de audio o vídeo de una persona para crear audio o imágenes convincentes de ella. Muchos incluso han creado vídeos falsos de sus víctimas, utilizándolos para pornografía deepfake o para suplantar la identidad de empresarios.

El deepfake de Rubio no es la primera vez que los suplantadores de identidad atacan a funcionarios del gobierno. En mayo, alguien se hizo pasar por la Jefa de Gabinete de la Casa Blanca, Susie Wiles, en llamadas y mensajes de texto a sus contactos. Varios no detectaron la estafa inicialmente e interactuaron con el atacante como si las conversaciones fueran legítimas.

Este incidente no fue culpa de Rubio; ataques como este se están volviendo comunes, con estafadores que utilizan herramientas de mensajería populares. Al parecer, Signal es una aplicación ampliamente utilizada en el poder ejecutivo, hasta el punto de que la Directora de Inteligencia Nacional, Tulsi Gabbard, afirmó que venía preinstalada en los dispositivos gubernamentales.

Este uso de Signal culminó con el entonces asesor de seguridad nacional, Mike Waltz, añadiendo accidentalmente a un periodista a un chat grupal de Signal que contenía conversaciones sobre planes para bombardear Yemen. Waltz ya no es el asesor de seguridad nacional. El uso indebido de la aplicación se remonta a la administración anterior, cuando el Pentágono se vio obligado a publicar un memorando al respecto.

¿Por qué debería preocuparse por este tipo de ataques a altos cargos del gobierno? Para empezar, da miedo pensar que estados extranjeros puedan salirse con la suya con información confidencial de esta manera. Pero también demuestra lo fácil que puede ser suplantar la identidad de alguien con un deepfake. Se pueden realizar ataques de audio con solo unos pocos fragmentos de audio para entrenar un algoritmo.

Sospecharías si Pamela Bondi entrara al chat de tu club de lectura, pero si alguien llamara a un familiar mayor haciéndose pasar por ti, diciendo que has tenido un accidente (https://www.malwarebytes.com/blog/news/2024/01/ai-used-to-fake-voices-of-loved-ones-in-ive-been-in-an-accident-scams) o pidiendo un rescate por tu secuestro, ¿caerían en la trampa? (Varios lo han hecho) (https://www.malwarebytes.com/blog/news/2022/12/virtual-kidnapping-scam-strikes-again-spot-the-signs).

Por extraño que parezca, las amenazas modernas exigen protecciones tradicionales. Recomendamos compartir la contraseña familiar con familiares cercanos, quienes podrán solicitarla para confirmar su identidad. Nunca envíen esta contraseña a ningún lado, guárdenla en secreto y acéptenla en persona.

Pero ni siquiera las contraseñas familiares evitarán que su abuela sea víctima de estafas románticas deepfake de falsos Mark Ruffalos y Brad Pitts. Una charla discreta para explicar las amenazas podría evitar estos desastres, junto con una revisión regular para asegurar que sus seres queridos menos expertos en tecnología estén sanos y salvos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd