Incidents associés

KUALA LUMPUR, 4 août --- Imaginez recevoir un message vocal sur WhatsApp de quelqu'un qui ressemble comme deux gouttes d'eau à votre petit frère : sa voix, son ton et même sa façon de prononcer votre nom sont tout à fait exacts.
Il vous dit qu'il est coincé au travail, qu'il a oublié son portefeuille et qu'il a besoin de 1 500 RM de toute urgence pour régler un problème avant que son patron ne l'apprenne. On entend même un rire familier à la fin, et vous n'y réfléchissez pas à deux fois, persuadé que c'est lui.
Et si cette voix n'était pas réelle ?
Datuk Amirudin Abdul Wahab, directeur général de CyberSecurity Malaysia (CSM), a mis en garde contre une augmentation des escroqueries impliquant le clonage vocal par IA, où les escrocs utilisent l'intelligence artificielle pour se faire passer pour des membres de leur famille, des amis ou des collègues.
Dans de nombreux cas, l'objectif est d'inciter les victimes à envoyer de l'argent en créant un faux sentiment d'urgence et de confiance.
Les escrocs utilisent des voix générées par l'IA pour imiter leurs amis, leurs proches ou leurs collègues, souvent via WhatsApp ou par téléphone, afin de demander des virements ou des prêts urgents.
Depuis début 2024, la police a enquêté sur plus de 454 cas de ce type, pour des pertes totales d'environ 2,72 millions de ringgits (RM) », a-t-il déclaré, contacté par Malay Mail.
Il a ensuite ajouté qu'au cours des trois premiers mois de 2025, le pays avait enregistré 12 110 cas de fraude en ligne, impliquant des escroqueries telles que de fausses offres de commerce électronique, de faux prêts et des plans d'investissement inexistants, pour des pertes totales s'élevant à 573,7 millions de RM.
Citant le Département des enquêtes sur les délits commerciaux (CCID) de Bukit Aman, il a déclaré que les outils d'IA générative, notamment les vidéos deepfake, les voix clonées, les fausses identités numériques et les chatbots, sont de plus en plus utilisés pour mener à bien ces escroqueries.
On a également constaté une augmentation des escroqueries impliquant des voix clonées générées par l'IA. « Dans un cas, des escrocs ont imité la voix d'un membre de la famille pour simuler une situation d'urgence via des messages vocaux WhatsApp, exhortant le destinataire à transférer des fonds de toute urgence », a-t-il déclaré.
Il a précisé que la voix était clonée à partir de courtes vidéos TikTok publiques.
Amirudin a ajouté que les escroqueries par deepfake ont également impliqué des personnalités nationales comme Datuk Seri Siti Nurhaliza et Datuk Lee Chong Wei, dont les images et les voix altérées ont été utilisées dans de fausses publicit és pour des plateformes de cryptomonnaies et d'investissement.
« En mars 2025, le CCID Bukit Aman a confirmé la découverte d'au moins cinq vidéos deepfakes usurpant l'identité de personnalités nationales et internationales. Parmi les faux noms utilisés figuraient le Premier ministre Datuk Seri Anwar Ibrahim, Elon Musk, Donald Trump, Teresa Kok et un haut dirigeant de Petronas.
« Ces clips manipulés ont été largement diffusés en ligne pour promouvoir de fausses plateformes d'investissement, dont beaucoup promettaient des rendements allant jusqu'à 100 fois le montant initial », a-t-il ajouté.
Il a déclaré que les escroqueries s'appuyaient largement sur l'autorité et la notoriété de personnalités connues pour convaincre des spectateurs peu méfiants, notamment sur les réseaux sociaux où la vérification est souvent négligée.
Pourquoi cela représente-t-il une menace sérieuse ? Amirudin a expliqué que l'essor de la technologie deepfake est alarmant, non seulement par sa sophistication technique, mais aussi par l'impact considérable qu'elle peut avoir sur la société.
Au niveau individuel, il a déclaré que les deepfakes sont utilisés pour exploiter les émotions du public, notamment dans les escroqueries imitant la voix de membres de la famille, de représentants du gouvernement ou de personnalités connues.
Ces tactiques créent un faux sentiment d'urgence, poussant les victimes à prendre des décisions rapides, souvent financières, avant même d'avoir eu le temps de réfléchir de manière critique.
« Au-delà de la sécurité personnelle, l'impact des deepfakes sur la confiance du public dans les médias suscite une inquiétude croissante. À mesure que les contenus manipulés deviennent de plus en plus difficiles à distinguer des images ou des sons réels, la frontière entre réalité et fiction s'estompe », a déclaré Amirudin.
Il a également déclaré que cette érosion de la confiance peut semer la confusion, facilitant la propagation de faux récits, de fausses informations et de désinformation, notamment sur les réseaux sociaux.
Plus largement, il a souligné que la sécurité nationale est également en jeu, car les contenus imitant de manière convaincante des dirigeants politiques ou des hauts fonctionnaires pourraient être utilisés pour semer la panique, manipuler l'opinion publique ou créer de l'instabilité politique.
Comment vérifier et signaler les contenus suspects générés par l'IA ?
Les deepfakes devenant de plus en plus difficiles à détecter, le CSM exhorte le public à rester vigilant et à exploiter les ressources disponibles pour vérifier les contenus suspects.
Il a ajouté que le Centre de réponse aux incidents Cyber999 de l'agence aide les particuliers et les organisations à identifier les cybermenaces impliquant des composants techniques tels que le phishing, les logiciels malveillants ou les contenus numériques manipulés.
Le public peut signaler toute activité suspecte par plusieurs canaux :
Formulaire en ligne et application mobile
- Courriel : cyber999[@]cybersecurity.my
- Hotline : 1-300-88-2999 (pendant les heures de bureau) ou +60 19-266 5850 (24h/24 et 7j/7)
Cyber999 fournit également une analyse technique des e-mails suspects. Les utilisateurs sont encouragés à transmettre l'intégralité de l'en-tête et du contenu pour examen par un expert.
« De plus, l'équipe publie régulièrement des avis de sécurité et des bonnes pratiques, aidant ainsi les Malaisiens à se tenir informés des dernières menaces en ligne et à les éviter », a-t-il ajouté.
Il a expliqué que Cyber999 gère les cybermenaces techniques telles que le phishing et les logiciels malveillants, tandis que les cas de deepfakes sans éléments techniques clairs sont généralement transmis aux forces de l'ordre ou aux autorités de régulation.
Pour les petites entreprises, Amiruddin a indiqué que CSM a élaboré les directives CyberSAFE pour les PME, qui proposent une liste de contrôle simple pour aider les organisations à détecter, vérifier et traiter les contenus suspects en ligne.