Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5135

Incidents associés

Incident 1476 Rapports
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
Une voix falsifiée a permis un braquage de banque de 35 millions de dollars en 2020
unite.ai · 2021

Une enquête sur une fraude de 35 millions de dollars américains commise par une banque des Émirats arabes unis en janvier 2020 a révélé que la technologie de falsification vocale a été utilisée pour imiter un dirigeant d'entreprise connu d'un directeur d'agence bancaire, qui a ensuite autorisé les transactions.

Le crime a eu lieu le 15 janvier dernier et est décrit dans une requête (PDF) adressée par les Émirats arabes unis aux autorités américaines pour obtenir de l'aide afin de retrouver une partie des fonds détournés et envoyés aux États-Unis.

La demande indique que le directeur d'une banque victime anonyme aux Émirats arabes unis a reçu un appel téléphonique d'une voix familière qui, accompagné de courriels d'un avocat nommé Martin Zelner, l'a convaincu de débourser les fonds, apparemment destinés à l'acquisition d'une entreprise.

La requête stipule :

« Selon les autorités émiraties, le 15 janvier 2020, le directeur de la succursale de l'entreprise victime a reçu un appel téléphonique prétendant provenir du siège social de l'entreprise. L'appelant ressemblait au directeur de l'entreprise, ce qui a conduit le directeur à croire que l'appel était légitime. »

« Le directeur de la succursale a également reçu plusieurs courriels qu'il pensait provenir du directeur et qui étaient liés à l'appel téléphonique. L'appelant a informé le directeur de l'agence par téléphone et par courriel que la société victime était sur le point d'acquérir une autre société et qu'un avocat, Martin Zelner (ci-après « Zelner »), avait été mandaté pour coordonner les procédures d'acquisition.

Le directeur de l'agence a ensuite reçu les courriels de M. Zelner, accompagnés d'une lettre d'autorisation du (supposé) directeur, dont la voix était familière à la victime.

Fraude vocale deepfake identifiée

Les enquêteurs émiratis ont ensuite établi qu'une technologie de clonage de voix deepfake avait été utilisée pour imiter la voix du directeur de l'entreprise :

« L'enquête émiratie a révélé que les accusés avaient utilisé la technologie de « voix deepfake » pour simuler la voix du directeur. En janvier 2020, des fonds ont été transférés de la société victime vers plusieurs comptes bancaires à l'étranger dans le cadre d'une opération complexe impliquant au moins 17 accusés connus et inconnus. Les autorités émiraties ont retracé les mouvements d'argent via de nombreux comptes et identifié deux transactions à destination des États-Unis.

Le 22 janvier 2020, deux virements de 199 987,75 et 215 985,75 USD ont été effectués par deux des accusés vers les comptes de la Centennial Bank, respectivement xxxxx7682 et xxxxx7885, situés aux États-Unis.

Aucun autre détail n'est disponible concernant ce crime, qui constitue seulement le deuxième cas connu de fraude financière par deepfake vocal. La première s'est produite neuf mois plus tôt, en mars 2020, lorsqu'un cadre d'une entreprise énergétique britannique a été interpellé au téléphone par ce qui semblait être son supérieur hiérarchique, exigeant le virement urgent de 220 000 € (243 000 $), que l'employé a ensuite effectué.

Développement du clonage vocal

Le clonage vocal deepfake implique l'apprentissage d'un modèle d'apprentissage automatique sur des centaines, voire des milliers d'échantillons de la voix « cible » (celle qui sera imitée). La correspondance la plus précise peut être obtenue en apprenant la voix cible directement par rapport à la voix de la personne qui parlera dans le scénario proposé, bien que le modèle soit « sur-ajusté » à la personne qui se fera passer pour la cible.

La communauté en ligne légitime la plus active pour les développeurs de clonage de voix est le serveur Discord Audio Fakes, qui propose des forums pour de nombreux algorithmes de clonage de voix deepfake tels que Google Tacotron-2, Talknet, ForwardTacotron, Coqui-ai-TTS et Glow-TTS, entre autres.

Deepfakes en temps réel

Une conversation téléphonique étant nécessairement interactive, la fraude au clonage vocal ne peut raisonnablement pas être réalisée par des extraits vocaux de haute qualité « préparés ». Dans les deux cas, on peut raisonnablement supposer que l'interlocuteur utilise un framework de deepfake en temps réel et en direct.

Les deepfakes en temps réel ont récemment fait parler d'eux avec l'arrivée de DeepFaceLive, une implémentation en temps réel du populaire logiciel de deepfake DeepFaceLab, qui permet de superposer des célébrités ou d'autres identités sur des images webcam en direct. Bien que les utilisateurs des forums Discord Audio Fakes et DeepFaceLab soient très intéressés par la combinaison de ces deux technologies au sein d'une architecture unique de deepfake vidéo et voix en direct, aucun produit de ce type n'a encore été présenté publiquement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd