Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5052

Incidents associés

Incident 9622 Rapports
Tbilisi-Based Call Center Allegedly Uses AI-Driven Scripts to Defraud Over 6,000 Victims of $35 Million

Incident 10172 Rapports
Alleged Deepfake Investment Scam in Spain Defrauds 208 Victims of €19 million ($20.9 million)

Loading...
Une arnaque à l'IA de nouvelle génération clone le courtier Exante et ouvre un compte JPMorgan pour duper une victime américaine
financemagnates.com · 2025
  • Les clones « classiques » sont tellement 2023 : grâce aux passeports générés par l'IA, aux deepfakes et aux sites web, les fraudeurs mettent en place des escroqueries sophistiquées, à grande échelle et ultra-réalistes.
  • « C'est un jeu de rapidité », a déclaré le responsable de la conformité d'Exante. « Il faut des outils d'IA pour copier et créer rapidement. »

Les escrocs sont devenus si sophistiqués que même les comptes bancaires traditionnels sont à leur portée. Dans un cas similaire, des escrocs ont ouvert un compte bancaire JPMorgan Chase et ont escroqué au moins une victime aux États-Unis via un clone d'Exante, une société de courtage qui n'offre même pas de services dans ce pays. La victime a transféré les fonds aux escrocs via ce compte JPMorgan Chase, selon la (véritable) Exante.

« Ils ont réussi à ouvrir des comptes réels chez JPMorgan Chase en utilisant une adresse américaine et ont également ouvert quelques portefeuilles de cryptomonnaies », a déclaré Natalia Taft, responsable de la conformité chez Exante, à Financemagnates.com.. « Ils ont mis en place ces canaux pour collecter l'argent de leurs victimes. »

Financemagnates.com a également vérifié que le numéro de routage et de compte correspondait à un compte JPMorgan Chase.

Obtention d'un compte bancaire

Cela montre à quel point les escrocs sont devenus sophistiqués. Bien que l'on ignore encore comment ils ont ouvert le compte JPMorgan Chase, il convient de souligner que l'intelligence artificielle générative (IA) est devenue un outil pour de nombreux fraudeurs. De nombreux internautes ont souligné sur les réseaux sociaux la facilité avec laquelle il est désormais possible de créer de fausses images de passeport grâce aux dernières fonctionnalités de génération d'images de ChatGPT, l'un des outils d'IA les plus utilisés.

Taft était convaincue qu'ils avaient utilisé des outils d'IA pour développer la plateforme de clonage.

Exante n'a pas signalé l'incident à JPMorgan Chase, car l'entreprise n'est pas présente aux États-Unis et n'a aucun lien bancaire avec JP Morgan. Financemagnates.com a contacté JPMorgan Chase, qui a écrit : « Nous étudions la situation. »

« Ils ont fait du très bon travail », a déclaré Taft à propos de l'interface du site web cloné. « Il faut des outils d'IA pour la copier et la créer rapidement. C'est parce que, pour eux, c'est un jeu de rapidité. Ils doivent faire le plus de victimes possible avant d'être démantelés. »

Taft a également expliqué que les escrocs avaient même « répliqué la plateforme de trading » d'Exante. Bien que le faux site web ait mentionné l'adresse d'Exante Chypre, il ciblait des clients américains. La véritable plateforme Exante ne propose pas de services de trading aux clients américains.

Après avoir reçu les dépôts de la victime, les escrocs l'ont même inscrite sur la véritable plateforme Exante. Lorsqu'un gestionnaire de compte Exante a contacté le nouveau client (victime d'une escroquerie), il l'a interrogé sur l'argent perdu sur la fausse plateforme Exante. Bien que la raison pour laquelle les escrocs ont inscrit la victime sur la véritable plateforme Exante reste floue, Taft suppose que « c'est une façon pour eux de nous faire subir des représailles, afin qu'elles viennent se plaindre et nous réclamer leur argent, tandis que les escrocs font disparaître l'argent initialement envoyé. »

« Nous avons recherché d'autres exemples récents d'escroqueries similaires aux États-Unis », a poursuivi Taft, « et nous en avons trouvé un certain nombre. Cela nous porte à croire qu'il ne s'agit pas d'un cas isolé. »

L'IA est un outil formidable pour les escrocs, et les régulateurs le savent

Les régulateurs ont également commencé à prêter une attention particulière aux escroqueries liées à l'IA. La Commodity Futures Trading Commission (CFTC) des États-Unis a également publié un avis indiquant que « l'IA permet aux fraudeurs de créer de plus en plus facilement des escroqueries convaincantes ».

Le régulateur a constaté que les escrocs utilisent l'IA pour créer de fausses images, voix, vidéos, conversations vidéo en direct, profils de réseaux sociaux et sites web imitant de véritables plateformes de trading financier.

Bien que l'utilisation de fausses images de célébrités pour promouvoir des escroqueries ne soit pas nouvelle, les outils d'IA ont facilité la tâche. Les fausses publicités paraissent également plus réelles. Certains outils permettent de générer des vidéos deepfakes utilisant les visages et les voix de célébrités, voire de personnalités politiques, pour attirer les victimes.

« Les fraudeurs peuvent utiliser les nouvelles technologies pour dissimuler leur identité, non seulement sur les photos diffusées sur les réseaux sociaux, mais aussi dans les conversations vidéo qui modifient leurs traits du visage et leur voix », a déclaré Melanie Devoe, directrice du Bureau de l'éducation et de la sensibilisation des clients (OCEO) de la CFTC. « Distinguer le vrai du faux peut être difficile. La meilleure défense est de ne jamais donner d'argent à des personnes rencontrées en ligne. »

La CFTC n'est pas la seule agence à mettre en garde contre l'utilisation de l'IA dans les escroqueries. La Securities and Exchange Commission (SEC), la North American Securities Administrators Association (NASAA) et la Financial Industry Regulatory Authority (FINRA) ont également émis un avertissement conjoint concernant l'augmentation des fraudes à l'investissement impliquant l'IA et d'autres nouvelles technologies. « Les investisseurs individuels doivent savoir que des acteurs malveillants exploitent la popularité et la complexité croissantes de l'IA pour attirer leurs victimes dans des escroqueries », indique l'avertissement.

En décembre dernier, le Federal Bureau of Investigation (FBI) a également mis en garde le public contre l'utilisation à grande échelle de l'IA générative par des criminels. « L'IA générative réduit le temps et les efforts que les criminels doivent consacrer à tromper leurs cibles », a déclaré le FBI, corroborant les observations de Taft. Exante a également déposé une plainte officielle auprès du FBI. Les fraudeurs proposant des produits sous la surveillance de la SEC et de la CFTC, l'équipe de conformité d'Exante a déposé plainte auprès de ces deux agences, ainsi que de l'État de New York et du FinCEN.

Cependant, selon Kristin Johnson, commissaire de la CFTC, les régulateurs « n'ont pas encore pleinement exploré le potentiel de l'IA pour lutter contre les cybermenaces et la fraude par IA ». Elle a également précisé qu'une enquête menée auprès des acteurs des marchés financiers a révélé que les acteurs de la cybermenace bénéficient de barrières à l'entrée plus faibles, d'une automatisation de plus en plus sophistiquée et d'un délai d'exploitation plus court.

« Les entreprises sont confrontées à des cybermenaces provenant d'acteurs allant des fraudeurs opportunistes disposant d'outils d'IA avancés aux pirates informatiques sophistiqués des États-nations qui déploient des attaques ciblées », a ajouté Mme Johnson. « L'IA générative pourrait permettre à des acteurs sophistiqués de lancer des campagnes de phishing plus convaincantes. Les deep fakes et autres campagnes similaires pourraient être plus difficiles à identifier… Par conséquent, le délai d'exploitation se réduit et le niveau de risque global pour les organisations financières augmente. »

Les escrocs sont organisés et mènent des opérations de grande envergure

L'ampleur des opérations d'escroquerie utilisant des deepfakes et des outils d'IA est illustrée par une enquête récente menée par l'Organised Crime and Corruption Reporting Project (OCCRP), la Télévision suédoise (SVT) et 30 autres partenaires médias. Ils ont découvert deux opérations de type « boiler room » : l'une gérée depuis des centres d'appels en Géorgie, l'autre active en Bulgarie, à Chypre et en Espagne, mais contrôlée depuis Israël.

L'opération géorgienne a détourné 35,3 millions de dollars auprès de plus de 6 000 personnes entre mai 2022 et février 2025. L'opération israélo-européenne a quant à elle détourné au moins 247 millions de dollars auprès de près de 27 000 victimes entre janvier 2021 et décembre 2024.

L'enquête a également révélé qu'un des faux sites de trading de cryptomonnaies utilisés par les escrocs était AdmiralsFX, qui copiait la marque Admirals, un véritable courtier en forex et en CFD.

Les régulateurs américains ont également averti que des plateformes d'investissement en ligne non enregistrées – et des personnes ou entreprises non agréées – faisaient la promotion de systèmes de trading basés sur l'IA avec de fausses déclarations telles que : « Notre système de trading basé sur l'IA est imbattable ! » ou « Utilisez l'IA pour choisir les actions gagnantes garanties ! »

« En réalité, ces escrocs exploitent la popularité de l'IA pour leurs opérations d'investissement », ont souligné la SEC et les autres agences.

La sophistication des escroqueries à l'investissement utilisant l'IA a également été mise en évidence lors d'une dernière opération policière espagnole, qui a permis l'arrestation de six personnes impliquées dans une escroquerie ayant dérobé plus de 20 millions de dollars à au moins 208 victimes. Les escrocs utilisaient des publicités deepfake mettant en scène des personnalités publiques connues, vantant des rendements élevés sur leurs investissements en cryptomonnaies. Parfois, ils se faisaient passer pour des conseillers financiers ou affichaient un intérêt amoureux factice pour tromper leurs victimes.

« Les victimes n'étaient pas sélectionnées au hasard ; des algorithmes sélectionnaient celles dont le profil correspondait aux recherches des cybercriminels », a déclaré la police espagnole. « Une fois leurs victimes sélectionnées, ils diffusaient des campagnes publicitaires sur les sites web ou les réseaux sociaux qu'elles utilisaient, leur proposant des investissements en cryptomonnaies à rendement élevé et sans risque de perte d'actifs – des investissements qui, de toute évidence, se sont avérés être une arnaque. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd