Incidentes Asociados
(LA CONVERSACIÓN) Alguien utilizó tecnología de inteligencia artificial para producir un clon de voz, o deepfake, del secretario de Estado Marco Rubio y lo utilizó para dejar mensajes de voz a varios funcionarios, según un informe de The Washington Post el 8 de julio de 2025. El informe citó un cable del Departamento de Estado que indicaba que el impostor "contactó al menos a cinco personas ajenas al Departamento, incluyendo tres ministros de Asuntos Exteriores, un gobernador de EE. UU. y un congresista estadounidense" mediante la aplicación de mensajería Signal.
El impostor dejó mensajes de voz a al menos dos de los funcionarios y también utilizó tecnología de inteligencia artificial para imitar el estilo de escritura de Rubio en mensajes de texto, según el informe. Las comunicaciones del impostor comenzaron a mediados de junio.
El FBI advirtió en una alerta del 15 de mayo sobre una "campaña de mensajes de texto y voz maliciosos en curso" en la que "agentes maliciosos se han hecho pasar por altos funcionarios estadounidenses". La alerta indicó que la campaña incluye ataques de "vishing" (https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/). Vishing es una palabra compuesta de "voz" y "phishing", y se refiere al uso de falsificaciones de voz para engañar a las víctimas y obtener información o dinero, o para comprometer sus sistemas informáticos. Como investigadores de ciberseguridad (https://scholar.google.com/citations?user=icDo19sAAAAJ&hl=en), observamos que los avances en algoritmos de aprendizaje profundo, edición e ingeniería de audio, y generación de voz sintética han permitido que sea cada vez más posible simular de forma convincente la voz de una persona (https://doi.org/10.1109/ICASSP.2018.8462018).
Peor aún, chatbots como ChatGPT son capaces de generar guiones realistas con respuestas adaptativas en tiempo real. Al combinar estas tecnologías con la generación de voz (https://www.youtube.com/watch?v=V2efVSXSlqc&t=3s), un deepfake pasa de ser una grabación estática a un avatar en vivo y realista que puede mantener una conversación telefónica de forma convincente.
Clonación de una voz
Crear una copia de audio convincente y de alta calidad de la voz de alguien solía requerir habilidades artísticas y técnicas, un hardware potente y una muestra sustancial de la voz objetivo. Desafortunadamente, esto ya no es así.
Hoy en día, una industria en rápido crecimiento ofrece servicios accesibles capaces de generar clones de voz de calidad moderada a alta (https://geekflare.com/ai-voice-cloning-tools/) por una tarifa módica. Algunas de las herramientas más avanzadas ahora requieren solo un minuto o incluso unos segundos de datos de voz para producir audio sintético lo suficientemente convincente como para engañar a los oyentes, a veces incluso a los familiares y amigos más cercanos del hablante objetivo.
Protección contra estafas y desinformación
La multinacional británica de diseño e ingeniería Arup denunció a la policía de Hong Kong en enero de 2024 que había sido estafada por 25 millones de dólares estadounidenses](https://www.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk) por estafadores que utilizaban "voces falsas". Según una encuesta realizada en 2024 a más de 3000 adultos en el Reino Unido, más de una cuarta parte afirmó haber sido víctima de una estafa de deepfakes de voz (https://www.cnn.com/2024/09/18/tech/ai-voice-cloning-scam-warning/index.html) en los últimos 12 meses.
En el Proyecto DeFake (https://defake.app/about) del Instituto Tecnológico de Rochester, la Universidad de Mississippi y la Universidad Estatal de Michigan, junto con otros investigadores, trabajamos arduamente para detectar deepfakes de video y audio y limitar el daño que causan. También existen medidas sencillas y cotidianas que puedes tomar para protegerte.
Ten cuidado con las llamadas inesperadas, incluso de personas que conoces bien. Esto no significa que debas programar todas las llamadas, pero es útil al menos enviar un correo electrónico o un mensaje de texto con antelación. Además, no confíe en el identificador de llamadas, ya que también puede ser falsificado. Por ejemplo, si recibe una llamada de alguien que dice representar a su banco, cuelgue y llame directamente al banco para confirmar la legitimidad de la llamada. Asegúrese de usar el número que tenga anotado, guardado en su lista de contactos o que pueda encontrar en Google.
Además, tenga cuidado con su información de identificación personal, como su número de Seguro Social, domicilio, fecha de nacimiento, número de teléfono, segundo nombre e incluso los nombres de sus hijos y mascotas. Los estafadores pueden usar esta información para hacerse pasar por usted ante bancos, agentes inmobiliarios y otros, enriqueciéndose mientras lo arruinan o destruyen su crédito.
Otro consejo: conózcase a sí mismo. En concreto, conozca sus sesgos y vulnerabilidades intelectuales y emocionales. Este es un buen consejo en general, pero es clave para protegerse de la manipulación. Los estafadores suelen intentar descubrir y aprovecharse de tus inquietudes financieras, tus afiliaciones políticas u otras inclinaciones, sean las que sean.
Esta alerta también es una buena defensa contra la desinformación mediante deepfakes de voz. Los deepfakes pueden usarse para aprovecharse de tu sesgo de confirmación, o de lo que te inclinas a creer sobre alguien.
Si escuchas a una persona importante, ya sea de tu comunidad o del gobierno, decir algo que te parezca muy inusual o que confirme tus peores sospechas, es prudente que tengas cuidado.
Este artículo se actualizó el 8 de julio de 2025 para incluir la noticia de que alguien utilizó tecnología de clonación de voz para hacerse pasar por Rubio.
Este artículo se republica de The Conversation bajo una licencia Creative Commons. Lea el artículo original aquí: https://theconversation.com/marco-rubio-impersonator-contacted-officials-using-ai-voice-deepfakes-computer-security-experts-explain-what-they-are-and-how-to-avoid-getting-fooled-201449.