Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4810

Incidents associés

Incident 9594 Rapports
Deepfake Video of Indonesian President Prabowo Subianto and Other Officials Reportedly Used in Scam to Defraud Citizens Across 20 Provinces

Loading...
Des victimes escroquées par des arnaques utilisant des deepfakes du président Prabowo
thejakartapost.com · 2025

Portant un chapeau et une chemise noirs traditionnels indonésiens, le président Prabowo Subianto s'adresse à la caméra dans une vidéo Instagram, demandant à son peuple comment il peut les aider après son élection l'année dernière.

"Qui n'a pas reçu d'aide de ma part ? Quels sont vos besoins en ce moment ?", semble demander Prabowo aux téléspectateurs dans le clip publié en novembre.

Mais alors que la bouche du président bouge et que ses yeux clignent, les mots qu'il prononce font partie d'une arnaque deepfake frauduleuse découverte par la police le mois dernier qui a escroqué des Indonésiens dans 20 provinces.

Les personnes piégées par le message devaient contacter un numéro WhatsApp et verser entre 250 000 et 1 million de roupies (15 à 60 dollars) en guise de « frais administratifs » pour obtenir une aide qui ne s'est jamais matérialisée.

Depuis les élections de l'année dernière, les experts ont mis en garde contre une vague de deepfakes - des fichiers audio, des images et des vidéos semblant provenir d'une personne connue mais qui sont en fait l'œuvre d'escrocs utilisant des outils d'intelligence artificielle.

Et les victimes disent que les canulars sont si sophistiqués qu'ils rendent d'autres personnes vulnérables aux escroqueries.

« Les gens devraient être plus prudents. Ne vous laissez pas facilement tromper par l'attrait des prix », a déclaré Aryani, 56 ans, qui a remis 200 000 roupies aux fraudeurs après avoir vu une vidéo deepfake d'un homme d'affaires de premier plan.

« J'ai besoin d'argent, mais on me demande d'en envoyer. Ils ont même passé des appels vidéo avec moi, comme si je leur parlais directement. »

Pendant la campagne présidentielle de l'année dernière, les deepfakes sont devenus un outil important pour diffuser de fausses informations à la fois nuisibles et utiles aux candidats.

Mais maintenant, cette technologie est tombée entre les mains de criminels cherchant à gagner de l'argent.

Large diffusion

Les vérificateurs de faits de l'AFP ont découvert que le compte derrière le clip de Prabowo avait publié des dizaines de vidéos similaires semblant montrer diverses personnalités de premier plan, dont le vice-président Gibran Rakabuming Raka.

Ces vidéos font également la promotion de fausses aides financières.

La police a arrêté un suspect qui a empoché 65 roupies (4 000 dollars) grâce à cette arnaque, a déclaré aux journalistes le général de brigade Himawan Bayu Aji, directeur de l'unité de cybercriminalité de la police nationale, en février.

Il a déclaré que les policiers avaient arrêté une deuxième personne impliquée dans une autre escroquerie qui utilisait également la technologie deepfake, sans divulguer le montant collecté.

L'enquête d'AFP Fact Check a révélé que la diffusion de ces vidéos avait une portée bien plus large que les deux comptes annoncés par la police.

Des vidéos deepfake du président, un ancien général populaire, circulaient toujours sur les réseaux sociaux après les arrestations, dont des dizaines sur TikTok avec le hashtag "Prabowo partage ses bénédictions".

Au moins 22 comptes TikTok vantaient le même stratagème frauduleux depuis que Prabowo a pris ses fonctions en octobre, ont constaté des journalistes de l'AFP, certains semblant profiter de sa récente ascension à la présidence.

Un compte comptant plus de 77 000 abonnés a accumulé 7,5 millions de vues sur une vidéo fabriquée de Prabowo distribuant apparemment une aide financière.

Un autre compte comptant des milliers d'abonnés a partagé 100 vidéos depuis janvier seulement, la majorité comportant des vidéos deepfake du président offrant de l'argent.

TikTok a annoncé avoir supprimé l'une des vidéos d'arnaque deepfake et le compte associé, ajoutant qu'elle continuerait de supprimer toutes celles qui violeraient les règles communautaires de la plateforme, qui interdisent les publications trompeuses.

La société mère de Facebook, Meta, n'a pas répondu à la demande de commentaires de l'AFP.

L'AFP, ainsi que plus de 100 autres organisations de vérification des faits, est payée par TikTok et Meta pour vérifier les publications sur les réseaux sociaux qui contiennent potentiellement de fausses informations.

Plus accessible

Aribowo Sasmito, cofondateur de l'organisation indonésienne de vérification des faits Mafindo, a déclaré que son équipe découvrait chaque semaine de nouvelles arnaques deepfake en raison de leur propagation prolifique en ligne.

"Nous avons commencé à voir des vidéos deepfake depuis l'année dernière, car les outils d'IA sont devenus plus accessibles et abordables", a-t-il déclaré à l'AFP.

Les stratagèmes utilisant des deepfakes de personnalités importantes semblent être en augmentation.

Le milliardaire de la technologie Elon Musk et le Premier ministre canadien Justin Trudeau font partie d'une série de célébrités ciblées ces dernières années par des usurpations d'identité sophistiquées pour promouvoir des escroqueries financières.

Aribwo a déclaré que son équipe de vérificateurs de faits travaillait plus dur que jamais pour démystifier ces escroqueries en utilisant les dernières technologies à la disposition des criminels.

« Nous avons remarqué que la qualité de ces vidéos s'est améliorée au fil du temps. Il est devenu plus difficile de distinguer les vidéos fausses des vraies », a-t-il ajouté.

« Le défi réside dans le volume de ces escroqueries. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd