Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5048

Incidents associés

Incident 10172 Rapports
Alleged Deepfake Investment Scam in Spain Defrauds 208 Victims of €19 million ($20.9 million)

Loading...
Six personnes arrêtées pour des escroqueries à l'investissement alimentées par l'IA qui ont volé 20 millions de dollars
bleepingcomputer.com · 2025

La police espagnole a arrêté six individus impliqués dans une escroquerie à grande échelle visant à investir dans des cryptomonnaies. Cette escroquerie utilisait des outils d'IA pour générer des publicités deepfake mettant en scène des personnalités publiques populaires afin d'attirer les gens.

L'escroquerie a connu un franc succès, escroquant 19 millions d'euros (20,9 millions de dollars) auprès de 208 victimes dans le monde entier.

L'opération policière, baptisée « COINBLACK -- WENDMINE », a débuté il y a deux ans suite au dépôt d'une plainte d'une victime. Elle a conduit à l'arrestation de six individus âgés de 34 à 57 ans dans les régions de Grenade et d'Alicante.

De plus, 100 000 euros, des téléphones portables, des ordinateurs, des disques durs, des armes à feu et des documents ont été saisis lors des perquisitions policières.

L'annonce de la police souligne la complexité de l'opération, expliquant que les criminels avaient créé plusieurs sociétés écrans pour blanchir les produits du crime. Parallèlement, le chef du groupe utilisait plus de 50 pseudonymes différents.

Plusieurs phases de l'escroquerie

L'escroquerie comportait plusieurs phases, commençant par un simple « appât romantique » où les cybercriminels se faisaient passer pour des « conseillers financiers » et se terminant par de fausses demandes de remboursement d'argent.

Les victimes étaient sélectionnées par des algorithmes qui sélectionnaient les profils correspondant aux critères de ciblage du cybercriminel, puis ciblées par des publicités deepfake générées par l'IA.

« Grâce à l'intelligence artificielle, les escrocs ont créé de fausses publicités mettant en scène des personnalités nationales connues, recommandant apparemment d'investir dans ces produits », explique le communiqué de la Police nationale.

« Cela a considérablement renforcé la confiance des victimes dans la sécurité et la rentabilité de leurs investissements. »

Les victimes ont d'abord constaté d'importants retours sur investissement sur des plateformes essentiellement fictives générant de faux chiffres.

À un moment donné, les escrocs, se faisant passer pour des conseillers financiers ou même simulant une relation amoureuse avec les victimes, les ont informées que leurs investissements avaient été bloqués et que leur argent ne pourrait être récupéré que moyennant un paiement important.

Enfin, les victimes ont été recontactées par les escrocs, qui se sont fait passer pour des agents d'Europol ou des avocats britanniques, affirmant que leurs fonds avaient été récupérés et leur demandant simplement de payer les impôts locaux pour les récupérer.

La police met en garde le public contre les promesses de rendements garantis et recommande de toujours vérifier la légitimité et la fiabilité d'une plateforme d'investissement avant de déposer des fonds.

D'autres signaux d'alarme incluent la pression pour investir, l'impossibilité de retirer, les blocages de solde inattendus et les allégations de frais/taxes supplémentaires exigés pour retirer de l'argent.

Les vidéos deepfake réalistes générées par l'IA sont désormais faciles à créer ; les utilisateurs ne doivent donc pas se laisser influencer par des célébrités censées promouvoir des plateformes d'investissement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd