Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6194

Incidents associés

Incident 11363 Rapports
Purported Widespread Use of AI-Generated Deepfake Videos Impersonate Malaysian Leaders in Investment Scams

Loading...
« On aurait dit mon frère » : comment les voix deepfake alimentent les escroqueries financières
malaymail.com · 2025

KUALA LUMPUR, 4 août --- Imaginez recevoir un message vocal sur WhatsApp de quelqu'un qui ressemble comme deux gouttes d'eau à votre petit frère : sa voix, son ton et même sa façon de prononcer votre nom sont tout à fait exacts.

Il vous dit qu'il est coincé au travail, qu'il a oublié son portefeuille et qu'il a besoin de 1 500 RM de toute urgence pour régler un problème avant que son patron ne l'apprenne. On entend même un rire familier à la fin, et vous n'y réfléchissez pas à deux fois, persuadé que c'est lui.

Et si cette voix n'était pas réelle ?

Datuk Amirudin Abdul Wahab, directeur général de CyberSecurity Malaysia (CSM), a mis en garde contre une augmentation des escroqueries impliquant le clonage vocal par IA, où les escrocs utilisent l'intelligence artificielle pour se faire passer pour des membres de leur famille, des amis ou des collègues.

Dans de nombreux cas, l'objectif est d'inciter les victimes à envoyer de l'argent en créant un faux sentiment d'urgence et de confiance.

Les escrocs utilisent des voix générées par l'IA pour imiter leurs amis, leurs proches ou leurs collègues, souvent via WhatsApp ou par téléphone, afin de demander des virements ou des prêts urgents.

Depuis début 2024, la police a enquêté sur plus de 454 cas de ce type, pour des pertes totales d'environ 2,72 millions de ringgits (RM) », a-t-il déclaré, contacté par Malay Mail.

Il a ensuite ajouté qu'au cours des trois premiers mois de 2025, le pays avait enregistré 12 110 cas de fraude en ligne, impliquant des escroqueries telles que de fausses offres de commerce électronique, de faux prêts et des plans d'investissement inexistants, pour des pertes totales s'élevant à 573,7 millions de RM.

Citant le Département des enquêtes sur les délits commerciaux (CCID) de Bukit Aman, il a déclaré que les outils d'IA générative, notamment les vidéos deepfake, les voix clonées, les fausses identités numériques et les chatbots, sont de plus en plus utilisés pour mener à bien ces escroqueries.

On a également constaté une augmentation des escroqueries impliquant des voix clonées générées par l'IA. « Dans un cas, des escrocs ont imité la voix d'un membre de la famille pour simuler une situation d'urgence via des messages vocaux WhatsApp, exhortant le destinataire à transférer des fonds de toute urgence », a-t-il déclaré.

Il a précisé que la voix était clonée à partir de courtes vidéos TikTok publiques.

Amirudin a ajouté que les escroqueries par deepfake ont également impliqué des personnalités nationales comme Datuk Seri Siti Nurhaliza et Datuk Lee Chong Wei, dont les images et les voix altérées ont été utilisées dans de fausses publicités pour des plateformes de cryptomonnaies et d'investissement.

« En mars 2025, le CCID Bukit Aman a confirmé la découverte d'au moins cinq vidéos deepfakes usurpant l'identité de personnalités nationales et internationales. Parmi les faux noms utilisés figuraient le Premier ministre Datuk Seri Anwar Ibrahim, Elon Musk, Donald Trump, Teresa Kok et un haut dirigeant de Petronas.

« Ces clips manipulés ont été largement diffusés en ligne pour promouvoir de fausses plateformes d'investissement, dont beaucoup promettaient des rendements allant jusqu'à 100 fois le montant initial », a-t-il ajouté.

Il a déclaré que les escroqueries s'appuyaient largement sur l'autorité et la notoriété de personnalités connues pour convaincre des spectateurs peu méfiants, notamment sur les réseaux sociaux où la vérification est souvent négligée.

Pourquoi cela représente-t-il une menace sérieuse ? Amirudin a expliqué que l'essor de la technologie deepfake est alarmant, non seulement par sa sophistication technique, mais aussi par l'impact considérable qu'elle peut avoir sur la société.

Au niveau individuel, il a déclaré que les deepfakes sont utilisés pour exploiter les émotions du public, notamment dans les escroqueries imitant la voix de membres de la famille, de représentants du gouvernement ou de personnalités connues.

Ces tactiques créent un faux sentiment d'urgence, poussant les victimes à prendre des décisions rapides, souvent financières, avant même d'avoir eu le temps de réfléchir de manière critique.

« Au-delà de la sécurité personnelle, l'impact des deepfakes sur la confiance du public dans les médias suscite une inquiétude croissante. À mesure que les contenus manipulés deviennent de plus en plus difficiles à distinguer des images ou des sons réels, la frontière entre réalité et fiction s'estompe », a déclaré Amirudin.

Il a également déclaré que cette érosion de la confiance peut semer la confusion, facilitant la propagation de faux récits, de fausses informations et de désinformation, notamment sur les réseaux sociaux.

Plus largement, il a souligné que la sécurité nationale est également en jeu, car les contenus imitant de manière convaincante des dirigeants politiques ou des hauts fonctionnaires pourraient être utilisés pour semer la panique, manipuler l'opinion publique ou créer de l'instabilité politique.

Comment vérifier et signaler les contenus suspects générés par l'IA ?

Les deepfakes devenant de plus en plus difficiles à détecter, le CSM exhorte le public à rester vigilant et à exploiter les ressources disponibles pour vérifier les contenus suspects.

Il a ajouté que le Centre de réponse aux incidents Cyber999 de l'agence aide les particuliers et les organisations à identifier les cybermenaces impliquant des composants techniques tels que le phishing, les logiciels malveillants ou les contenus numériques manipulés.

Le public peut signaler toute activité suspecte par plusieurs canaux :

Formulaire en ligne et application mobile

  • Courriel : cyber999[@]cybersecurity.my
  • Hotline : 1-300-88-2999 (pendant les heures de bureau) ou +60 19-266 5850 (24h/24 et 7j/7)

Cyber999 fournit également une analyse technique des e-mails suspects. Les utilisateurs sont encouragés à transmettre l'intégralité de l'en-tête et du contenu pour examen par un expert.

« De plus, l'équipe publie régulièrement des avis de sécurité et des bonnes pratiques, aidant ainsi les Malaisiens à se tenir informés des dernières menaces en ligne et à les éviter », a-t-il ajouté.

Il a expliqué que Cyber999 gère les cybermenaces techniques telles que le phishing et les logiciels malveillants, tandis que les cas de deepfakes sans éléments techniques clairs sont généralement transmis aux forces de l'ordre ou aux autorités de régulation.

Pour les petites entreprises, Amiruddin a indiqué que CSM a élaboré les directives CyberSAFE pour les PME, qui proposent une liste de contrôle simple pour aider les organisations à détecter, vérifier et traiter les contenus suspects en ligne.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd