Incidents associés
KUALA LUMPUR : Des escrocs utilisent l’intelligence artificielle (IA) pour créer des vidéos hyperréalistes mettant en scène des hommes politiques, des magnats du monde des affaires et des célébrités.
Ces vidéos sont utilisées pour attirer des personnes peu méfiantes vers des stratagèmes d’investissement frauduleux.
Datuk Seri Michael Chong, directeur du service des services publics et des plaintes de la MCA, a déclaré aujourd’hui que 2,11 milliards de ringgits avaient été perdus l’année dernière à cause de ces escroqueries. Au total, 13 956 cas ont été signalés.
Ces vidéos deepfake générées par l’IA mettent souvent en scène des personnalités influentes, dont le Premier ministre Datuk Seri Anwar Ibrahim, le magnat Tan Sri Robert Kuok, l’ancien président de la Cour suprême Tun Tengku Maimun Tuan Mat et le PDG de Capital A Bhd, Tan Sri Tony Fernandes, qui font la promotion de faux investissements et de stratagèmes pour s ’enrichir rapidement.
« Les vidéos générées par l'IA semblent si réelles que personne ne peut les distinguer. N'importe qui pourrait croire que c'est le Premier ministre lui-même qui invite le public à investir, sans savoir qu'il s'agit d'un faux produit par l'IA. » Chong a déclaré cela à Wisma MCA.
Il a indiqué que 85 % des victimes ont été convaincues d'investir après avoir visionné de fausses vidéos promotionnelles présentant des recommandations apparemment authentiques de personnalités publiques.
« Sans l'accent tamoul dans l'une des vidéos, j'aurais peut-être cru que c'était vrai », a-t-il déclaré.
Cela, a-t-il ajouté, souligne à quel point le contenu peut être convaincant.
« Ces vidéos se sont multipliées ces quatre à cinq derniers mois, se propageant sur Facebook, WhatsApp et Telegram, les rendant ainsi facilement accessibles. »
Il a ajouté que si les autorités, comme la Commission malaisienne des communications et du multimédia, suppriment les contenus signalés, les escrocs continuent de garder une longueur d'avance.
« Ils sont plus malins. Dès qu'une vidéo est supprimée, ils en génèrent une nouvelle et continuent de tromper les gens. »
Pour illustrer la facilité avec laquelle les victimes se laissent piéger, lui et plusieurs membres de la MCA ont mené une opération d'infiltration simple.
Ils ont réuni 1 100 RM et ont répondu à un lien sous l'une des vidéos frauduleuses.
« En quelques minutes, un escroc a contacté un membre de notre équipe pour expliquer l'investissement et ses bénéfices.
« Il a joué le jeu et a investi 1 100 RM. On lui a promis un remboursement de 5 000 RM la semaine suivante.
« Le lendemain, ils ont exigé 250 USD supplémentaires de frais de traitement. Nous avons alors confirmé qu'il s'agissait d'une escroquerie et avons cessé toute communication. »
S'il est difficile d'empêcher les escrocs d'utiliser la technologie de manière de plus en plus créative, il a déclaré que la sensibilisation du public reste la meilleure défense.
« Nous devons signaler et étiqueter ces vidéos comme fausses dès qu'elles apparaissent sur notre fil d'actualité.
« Ainsi, la prochaine personne qui les verra pourrait y réfléchir à deux fois avant de tomber dans le piège. »
Il a déclaré que les plateformes de médias sociaux devraient renforcer les mécanismes de détection et a appelé les autorités à renforcer la législation contre l'utilisation abusive des médias générés par l'IA.