Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5521

Incidentes Asociados

Incidente 114123 Reportes
Purported AI Voice Cloning Used to Impersonate Secretary of State Marco Rubio

Loading...
Deepfake: el secretario de Estado de EE. UU., Marco Rubio, fue imitado en Signal
it-daily.net · 2025

Un individuo desconocido aparentemente se hizo pasar por el Secretario de Estado de EE. UU., Marco Rubio, con mensajes de audio y texto engañosamente reales en la plataforma de mensajería Signal. El objetivo de la campaña era influir en políticos de EE. UU. y del extranjero. Este es un ejemplo extremadamente preocupante de la creciente amenaza que representan los deepfakes.

Suplantación de identidad a través de Signal: Ciberataque a círculos políticos

Se dice que un atacante aún no identificado se hizo pasar por el Secretario de Estado de EE. UU., Marco Rubio, utilizando tecnologías deepfakes. Al parecer, envió mensajes manipulados en nombre de Rubio a través de la plataforma de mensajería Signal, tanto en texto como en audio. Los destinatarios no solo eran responsables políticos estadounidenses, sino también ministros de Asuntos Exteriores de otros países.

Deepfakes: Engañosamente reales y peligrosos

Lo que parecía ciencia ficción hace apenas unos años, ahora es la cruda realidad: con la ayuda de la inteligencia artificial, se pueden imitar voces e incluso personalidades completas de forma convincente. Para los ciberdelincuentes, esta es una herramienta poderosa para ganarse la confianza, difundir desinformación o manipular los procesos políticos.

Un experto en seguridad advierte sobre el creciente riesgo

Adam Marrè, CISO de Arctic Wolf y exagente del FBI, comparte su opinión sobre los deepfakes y evalúa sus riesgos para la sociedad.

Los informes actuales son preocupantes: un actor de amenazas previamente desconocido presuntamente utilizó inteligencia artificial para hacerse pasar por el Secretario de Estado de EE. UU., Marco Rubio, a través de una cuenta de Signal y contactó con altos funcionarios del gobierno estadounidense y funcionarios extranjeros. Este escenario ilustra que vivimos en un mundo en el que a menudo ya no sabemos qué es cierto al navegar por contenido en línea.

Existen numerosos ejemplos en todo el mundo de uso de IA para hacerse pasar por políticos, personalidades del mundo empresarial y celebridades. Este incidente subraya una vez más la necesidad de permanecer alerta en todo momento. El año pasado, ya presenciamos intentos de influir en las elecciones mediante contenido generado por IA y la propagación de desinformación.

Y cada vez es más difícil determinar qué es auténtico en nuestras pantallas o en nuestras bandejas de entrada. Los expertos en seguridad llevan mucho tiempo advirtiendo sobre los riesgos del contenido generado por IA y su potencial para influir en la opinión pública. Esto es especialmente preocupante en el contexto de unas elecciones políticas históricas en todo el mundo. Los actores de amenazas con motivaciones políticas y los hacktivistas tienen una agenda clara y utilizan cada vez más herramientas de IA para crear y distribuir contenido falso, como vídeos, imágenes y grabaciones de audio. Y la sociedad está alarmantemente... ¡No estamos preparados para esto!

Por lo tanto, se necesitan procesos estructurados para verificar cada comunicación. Confiar solo en el instinto ya no es suficiente. Necesitamos poder comprobar con fiabilidad si un mensaje proviene realmente de la fuente declarada. Además, el debate social debe tomar una nueva dirección: las plataformas que alojan y distribuyen dicho contenido deben rendir cuentas con mayor responsabilidad. Deben asumir un papel central en la verificación, el etiquetado y la eliminación de contenido falso.

Ya es hora de tratar la desinformación basada en IA como un grave riesgo social y establecer mejores salvaguardias, legislación y consecuencias reales para enjuiciar a los responsables de difundir mentiras y, por lo tanto, desestabilizar la sociedad.

(Vicepresidente/Arctic Wolf)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd