Incidentes Asociados
El Departamento de Estado confirmó el martes que se utilizó inteligencia artificial para suplantar la voz del secretario de Estado estadounidense, Marco Rubio, y realizar llamadas a ministros de Asuntos Exteriores y funcionarios estadounidenses, lo que aumenta la preocupación por el creciente uso de deepfakes. Un actor desconocido que se hizo pasar por el Sr. Rubio creó una cuenta en la aplicación de mensajería Signal a mediados de junio, usando el nombre de usuario "marco.rubio@state.gov" para contactar al menos a tres ministros de Asuntos Exteriores, un senador estadounidense y un gobernador, según un memorando publicado inicialmente por The Washington Post. El impostor utilizó inteligencia artificial para imitar la voz y el estilo de escritura del Sr. Rubio.
La portavoz Tammy Bruce afirmó que el Departamento de Estado estaba monitoreando y abordando la situación. "El departamento se toma muy en serio su responsabilidad de proteger su información y toma medidas continuas para mejorar su ciberseguridad y prevenir futuros incidentes por razones de seguridad", declaró la Sra. Bruce.
El intento de suplantar la identidad del Sr. Rubio pone de relieve el auge del contenido "deepfake" (https://www.thenationalnews.com/future/technology/2025/06/24/facebook-iraqi-kurdish-ai-audio-oversight-board/ "https://www.thenationalnews.com/future/technology/2025/06/24/facebook-iraqi-kurdish-ai-audio-oversight-board/"), en el que se utiliza IA para manipular contenido multimedia, como vídeos, imágenes y grabaciones de audio.
Durante las primarias presidenciales demócratas de New Hampshire del año pasado, los residentes reportaron haber recibido llamadas automáticas deepfakes de Joe Biden, quien se postulaba a la reelección en ese momento. Y en las elecciones de Eslovaquia del año pasado, una grabación de audio deepfake se viralizó en la que un candidato supuestamente detallaba cómo había manipulado las encuestas.
Cuando la IA facilita la infiltración en los gobiernos, puede generar vulnerabilidades que afectan la seguridad nacional, y cada vez es más difícil distinguir la verdad de la ficción.
Un estudio realizado en 2023 por el University College de Londres indicó que los humanos no podían detectar con precisión más de una cuarta parte de las muestras de audio deepfake.
El estudio se realizó en los inicios del audio con IA y de herramientas que desde entonces han mejorado drásticamente. Algunas de las aplicaciones de IA más recientes solo requieren unos pocos fragmentos de audio para replicar con precisión las voces y decir prácticamente cualquier cosa, incluso imitando la idiosincrasia de la persona que habla.
Sin embargo, a medida que la IA se vuelve más predominante, se están realizando esfuerzos para crear tecnología que detecte el contenido deepfake.
En 2022, la Universidad de Inteligencia Artificial Mohamed bin Zayed de los Emiratos Árabes Unidos fue incluida como solicitante de una patente estadounidense para un "transformador de vídeo para la detección de deepfakes" (https://www.thenationalnews.com/future/2024/02/07/why-the-deepfake-video-detection-race-is-heating-up/), que consistiría en un dispositivo de visualización que reproduciría el posible vídeo deepfake e indicaría si es real o falso.
Hao Li, profesor asociado de visión artificial en la MBZUAI, declaró a The National el año pasado que se estaban logrando enormes avances en la tecnología de detección de deepfakes.
"Cada vez es más difícil crear un deepfake indetectable", afirmó. Sin embargo, como resultado, los intentos de suplantar la identidad de funcionarios gubernamentales podrían generalizarse en los próximos meses y años.
Leah Siskind, investigadora de IA de la Fundación para la Defensa de las Democracias, afirmó que el engaño impulsado por la IA representa una nueva frontera para las operaciones de influencia.
"Este es un problema urgente de seguridad nacional con graves ramificaciones diplomáticas", declaró.
"Hemos visto otros casos de deepfakes de altos funcionarios gubernamentales utilizados para acceder a cuentas personales, pero usar la IA para influir en las relaciones diplomáticas y la toma de decisiones es una escalada peligrosa".