Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5476

Incidents associés

Incident 11363 Rapports
Purported Widespread Use of AI-Generated Deepfake Videos Impersonate Malaysian Leaders in Investment Scams

Loading...
Des deepfakes d'IA de Premier ministre et de magnats utilisés dans des escroqueries
nst.com.my · 2025

KUALA LUMPUR : Des escrocs utilisent l’intelligence artificielle (IA) pour créer des vidéos hyperréalistes mettant en scène des hommes politiques, des magnats du monde des affaires et des célébrités.

Ces vidéos sont utilisées pour attirer des personnes peu méfiantes vers des stratagèmes d’investissement frauduleux.

Datuk Seri Michael Chong, directeur du service des services publics et des plaintes de la MCA, a déclaré aujourd’hui que 2,11 milliards de ringgits avaient été perdus l’année dernière à cause de ces escroqueries. Au total, 13 956 cas ont été signalés.

Ces vidéos deepfake générées par l’IA mettent souvent en scène des personnalités influentes, dont le Premier ministre Datuk Seri Anwar Ibrahim, le magnat Tan Sri Robert Kuok, l’ancien président de la Cour suprême Tun Tengku Maimun Tuan Mat et le PDG de Capital A Bhd, Tan Sri Tony Fernandes, qui font la promotion de faux investissements et de stratagèmes pour s’enrichir rapidement.

« Les vidéos générées par l'IA semblent si réelles que personne ne peut les distinguer. N'importe qui pourrait croire que c'est le Premier ministre lui-même qui invite le public à investir, sans savoir qu'il s'agit d'un faux produit par l'IA. » Chong a déclaré cela à Wisma MCA.

Il a indiqué que 85 % des victimes ont été convaincues d'investir après avoir visionné de fausses vidéos promotionnelles présentant des recommandations apparemment authentiques de personnalités publiques.

« Sans l'accent tamoul dans l'une des vidéos, j'aurais peut-être cru que c'était vrai », a-t-il déclaré.

Cela, a-t-il ajouté, souligne à quel point le contenu peut être convaincant.

« Ces vidéos se sont multipliées ces quatre à cinq derniers mois, se propageant sur Facebook, WhatsApp et Telegram, les rendant ainsi facilement accessibles. »

Il a ajouté que si les autorités, comme la Commission malaisienne des communications et du multimédia, suppriment les contenus signalés, les escrocs continuent de garder une longueur d'avance.

« Ils sont plus malins. Dès qu'une vidéo est supprimée, ils en génèrent une nouvelle et continuent de tromper les gens. »

Pour illustrer la facilité avec laquelle les victimes se laissent piéger, lui et plusieurs membres de la MCA ont mené une opération d'infiltration simple.

Ils ont réuni 1 100 RM et ont répondu à un lien sous l'une des vidéos frauduleuses.

« En quelques minutes, un escroc a contacté un membre de notre équipe pour expliquer l'investissement et ses bénéfices.

« Il a joué le jeu et a investi 1 100 RM. On lui a promis un remboursement de 5 000 RM la semaine suivante.

« Le lendemain, ils ont exigé 250 USD supplémentaires de frais de traitement. Nous avons alors confirmé qu'il s'agissait d'une escroquerie et avons cessé toute communication. »

S'il est difficile d'empêcher les escrocs d'utiliser la technologie de manière de plus en plus créative, il a déclaré que la sensibilisation du public reste la meilleure défense.

« Nous devons signaler et étiqueter ces vidéos comme fausses dès qu'elles apparaissent sur notre fil d'actualité.

« Ainsi, la prochaine personne qui les verra pourrait y réfléchir à deux fois avant de tomber dans le piège. »

Il a déclaré que les plateformes de médias sociaux devraient renforcer les mécanismes de détection et a appelé les autorités à renforcer la législation contre l'utilisation abusive des médias générés par l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd