Incidentes Asociados

KUALA LUMPUR, 4 de agosto --- Imagina recibir una nota de voz en WhatsApp de alguien que se parece mucho a tu hermano menor: su voz, tono e incluso la forma en que dice tu nombre son perfectos.
Dice que está atrapado en el trabajo, se olvidó la cartera y necesita RM1,500 urgentemente para resolver algo antes de que su jefe se entere. Incluso hay una risa familiar al final y no lo piensas dos veces porque realmente crees que era él.
¿Pero qué pasaría si esa voz no fuera real?
El director ejecutivo de CyberSecurity Malaysia (CSM), Datuk Amirudin Abdul Wahab, ha advertido sobre el aumento de las estafas que implican la clonación de voz generada por IA, donde los estafadores utilizan inteligencia artificial para hacerse pasar por familiares, amigos o compañeros de trabajo.
En muchos casos, el objetivo es engañar a las víctimas para que envíen dinero creando una falsa sensación de urgencia y confianza.
Los estafadores utilizan voces generadas por IA para simular ser amigos, familiares o colegas, a menudo por WhatsApp o llamadas telefónicas, para solicitar transferencias o préstamos urgentes.
"Desde principios de 2024, la policía ha investigado más de 454 casos de este tipo, con pérdidas totales de aproximadamente RM2,72 millones", declaró al ser contactado por Malay Mail.
Añadió que en el primer trimestre de 2025, el país registró 12.110 casos de fraude en línea, que incluían estafas como transacciones falsas de comercio electrónico, préstamos fraudulentos y planes de inversión inexistentes, con pérdidas totales de RM573,7 millones.
Citando al Departamento de Investigación de Delitos Comerciales (CCID) de Bukit Aman, afirmó que las herramientas de IA generativa, como vídeos deepfake, voces clonadas, identidades digitales falsas y chatbots, se utilizan cada vez más para llevar a cabo estas estafas.
"También ha aumentado el número de estafas con voces clonadas generadas por IA. En un caso, los estafadores imitaron la voz de un familiar para simular una emergencia mediante notas de voz de WhatsApp, instando al destinatario a transferir fondos urgentemente.
Señaló que la voz fue clonada de videos cortos de TikTok.
Amirudin añadió que las estafas deepfake también han involucrado a figuras nacionales como Datuk Seri Siti Nurhaliza y Datuk Lee Chong Wei, cuyas imágenes y voces alteradas se utilizaron en anuncios falsos que promocionaban criptomonedas y plataformas de inversión.
En marzo de 2025, el CCID Bukit Aman confirmó el descubrimiento de al menos cinco videos deepfake que suplantaban a personalidades nacionales e internacionales. Entre los nombres utilizados falsamente se encontraban el primer ministro Datuk Seri Anwar Ibrahim, Elon Musk, Donald Trump, Teresa Kok y un alto ejecutivo de Petronas.
Los videos manipulados circularon ampliamente en línea para promocionar plataformas de inversi ón falsas, muchas de las cuales prometían falsamente rendimientos de hasta 100 veces la cantidad original, añadió. Afirmó que las estafas se basaban en gran medida en la autoridad y la familiaridad de figuras conocidas para convencer a los espectadores desprevenidos, especialmente en las redes sociales, donde a menudo se pasa por alto la verificación.
Amirudin explicó por qué representa una grave amenaza: el auge de la tecnología deepfake es alarmante no solo por su sofisticación técnica, sino también por el amplio impacto que puede tener en la sociedad.
A nivel individual, afirmó que los deepfakes se utilizan para explotar las emociones del público, especialmente en estafas que imitan las voces de familiares, funcionarios gubernamentales o personalidades conocidas.
Estas tácticas crean una falsa sensación de urgencia, empujando a las víctimas a tomar decisiones rápidas, a menudo relacionadas con dinero, antes de que tengan la oportunidad de pensar críticamente.
"Más allá de la seguridad personal, existe una creciente preocupación por el efecto que los deepfakes tienen en la confianza del público en los medios de comunicación. A medida que el contenido manipulado se vuelve cada vez más indistinguible de las imágenes o el audio reales, se difumina la línea entre la realidad y la ficción", declaró Amirudin.
También afirmó que esta erosión de la confianza puede generar confusión, facilitando la propagación de narrativas falsas, desinformación y desinformación, especialmente en redes sociales.
En un nivel más amplio, destacó que la seguridad nacional también está en juego, ya que el contenido que imita convincentemente a líderes políticos o altos funcionarios podría utilizarse como arma para sembrar el pánico, manipular la opinión pública o generar inestabilidad política.
Cómo verificar y denunciar contenido sospechoso generado por IA
Dado que los deepfakes son cada vez más difíciles de detectar, el CSM insta al público a mantenerse alerta y aprovechar los recursos disponibles para verificar el contenido sospechoso.
Añadió que el Centro de Respuesta a Incidentes Cyber999 de la agencia apoya tanto a particulares como a organizaciones en la identificación de ciberamenazas que involucran componentes técnicos como phishing, malware o contenido digital manipulado.
El público puede reportar actividades sospechosas a través de varios canales:
Formulario en línea y aplicación móvil
- Correo electrónico: cyber999[@]cybersecurity.my
- Línea directa: 1-300-88-2999 (en horario de oficina) o +60 19-266 5850 (24/7)
Cyber999 también ofrece análisis técnico de correos electrónicos sospechosos. Se recomienda a los usuarios que reenvíen el encabezado y el contenido completo para su revisión por expertos.
Además, el equipo comparte periódicamente avisos de seguridad y mejores prácticas, ayudando a los malasios a mantenerse al día con las últimas amenazas en línea y a evitarlas, afirmó.
Explicó que Cyber999 gestiona ciberamenazas técnicas como el phishing y el malware, mientras que los casos de deepfake sin elementos técnicos claros suelen remitirse a las fuerzas del orden o a los organismos reguladores.
Para las pequeñas empresas, Amiruddin indicó que CSM ha desarrollado las Directrices CyberSAFE para PYMES, que ofrecen una lista de verificación sencilla para ayudar a las organizaciones a detectar, verificar y responder a contenido sospechoso en línea.