Incidentes Asociados
Desde Fox News, nos enteramos esta mañana de que un impostor usó tecnología de inteligencia artificial para hacerse pasar por el Secretario de Estado de EE. UU. Marco Rubio y comunicarse con funcionarios electos y designados. Greg Norman informa:
El misterioso individuo que se hizo pasar por un miembro del gabinete del presidente Donald Trump contactó a ministros de Asuntos Exteriores, un gobernador de EE. UU. y un congresista mediante mensajes de voz y texto asistidos por IA que imitaban la voz y el estilo de escritura de Rubio, informó el Washington Post, citando a un alto funcionario estadounidense y un cable del Departamento de Estado...
El cable indicaba que el acto de suplantación de identidad comenzó a mediados de junio cuando alguien creó una cuenta de Signal con el nombre de usuario Marco.Rubio@state.gov, que no es la dirección de correo electrónico real de Rubio.
El cable del 3 de julio añadió que el falso Rubio "contactó al menos a cinco personas ajenas al Departamento, entre ellas tres ministros de Asuntos Exteriores, un gobernador de EE. UU. y un congresista de EE. UU." El Departamento de Estado investiga a un imitador de Rubio con IA, quien contactó con funcionarios estadounidenses y extranjeros, 9 de julio de 2025.
Un alto funcionario estadounidense describió el intento como "poco sofisticado". Sin embargo, si la experiencia pasada sirve de guía, estos intentos de deepfakes se volverán más sofisticados con el tiempo.
Deep Media, empresa de detección de deepfakes, ofrece información relativamente actualizada (17 de febrero de 2025) sobre el rápido crecimiento de los deepfakes: "Campañas de desinformación: Los deepfakes políticos aumentaron un 300 % en los últimos dos años, impactando las elecciones y el discurso público". Desafortunadamente, las sugerencias para detectarlos sin asistencia electrónica no son muy tranquilizadoras. Por ejemplo, "Las voces deepfakes suelen presentar ligeras distorsiones robóticas o entonaciones poco naturales" y "Esté atento al audio que no se alinea perfectamente con los movimientos de los labios".
Claro, ¿y cuánto tiempo tardarán los falsificadores en corregir esos errores?
Afortunadamente, los métodos electrónicos pueden ofrecer información:
Las búsquedas inversas de imágenes y vídeos pueden revelar si el contenido ha sido alterado o generado por IA.
Las herramientas de detección con IA analizan las huellas digitales en busca de patrones sintéticos. "Cómo detectar deepfakes en 2025: El creciente desafío de la manipulación generada por IA
Estas señales serían más difíciles de "corregir" simplemente porque son inherentes a la naturaleza de la tecnología. Y, como era de esperar, Deep Media ofrece una herramienta de detección, advirtiendo que «A medida que los deepfakes se vuelven más avanzados, los métodos de verificación tradicionales no serán suficientes. En 2025, la detección por IA en tiempo real se convertirá en el estándar de la industria para la autenticación».
Es probable que esta sea una evaluación correcta, y Deep Media pronto tendrá muchos competidores en un mundo donde ver ya no es creer, como decía el refrán.
La detección de deepfakes debería ser una oferta estándar en los sistemas informáticos.