Incidents associés
Une enquête sur le vol de 35 millions de dollars dans une banque des Émirats arabes unis en janvier 2020 a révélé qu'une fausse technologie vocale avait été utilisée pour se faire passer pour un directeur d'entreprise connu d'un directeur d'agence bancaire, qui avait ensuite autorisé la transaction.
Le crime a eu lieu le 15 janvier de l'année dernière et est décrit dans une requête (PDF) Les Émirats arabes unis fournissaient aux autorités de l'État américain une assistance pour retrouver une partie des fonds détournés envoyés aux États-Unis.
La pétition indique que le directeur de la succursale anonyme des Émirats arabes unis de la banque des victimes a reçu un message vocal familier qui, accompagné de courriels d'un avocat nommé Martin Zelner, a convaincu le directeur de payer l'argent, apparemment pour la propriété d'une entreprise.
La requête dit :
Selon les autorités des Émirats arabes unis, le 15 janvier 2020, le directeur de la succursale de la société victime a reçu un appel téléphonique prétendant provenir du siège social de la société. L'appelant ressemblait au PDG de l'entreprise, donc le directeur de la succursale a cru que l'appel était légitime.
« Le directeur de l'agence a également reçu plusieurs courriels qu'il pensait provenir du directeur, en lien avec l'appel. L'appelant a informé le directeur de l'agence par téléphone et par courriel que l'entreprise de la victime était sur le point d'être rachetée par une autre société et qu'un avocat, Martin Zelner (Zelner), avait été mandaté pour coordonner le processus d'acquisition. »
Le directeur de la succursale a ensuite reçu les courriels de Zelner, accompagnés d'une lettre d'approbation du directeur (probablement) dont la voix était familière à la victime.
Fraude vocale détectée
Les enquêteurs des Émirats arabes unis ont ensuite confirmé que la technologie de codage vocal avait été utilisée pour imiter la voix du PDG de l'entreprise :
L'enquête menée par les Émirats arabes unis a révélé que les accusés avaient utilisé la technologie de la « voix grave » pour imiter la voix du directeur. En janvier 2020, des fonds ont été transférés de la société victime vers plusieurs comptes bancaires dans d’autres pays dans le cadre d’un stratagème complexe impliquant au moins 17 accusés connus et inconnus. Les autorités des Émirats arabes unis ont retracé le mouvement de cet argent à travers plusieurs comptes et ont découvert deux transferts vers les États-Unis.
« Le 22 janvier 2020, deux virements électroniques de 199 987,75 USD et 215 985,75 USD ont été effectués par deux des défendeurs vers les comptes de la Centennial Bank, respectivement xxxxx7682 et xxxxx7885, situés aux États-Unis. »
Aucun autre détail n'est disponible sur ce crime, qui constitue le deuxième incident connu de fraude financière impliquant des personnes aux poches profondes. Le premier incident s'est produit il y a neuf mois, en mars 2020, lorsqu'un responsable d'une entreprise énergétique britannique a été menacé par téléphone par un appelant se faisant passer pour un patron, exigeant un virement urgent de 220 000 € (243 000 $), que l'employé a ensuite traité.
Amélioration de la voix de clôture
Le codage de fausse voix implique la formation d'un modèle d'apprentissage automatique sur des centaines, voire des milliers, d'échantillons de la voix « cible » (la voix à imiter). La comparaison la plus précise peut être obtenue en entraînant la voix cible directement par rapport à la voix de la personne qui parlera dans la vidéo proposée, bien que le style soit « adapté » à la personne qui incarne la cible.
La communauté en ligne la plus active pour les développeurs de dissimulation vocale est le serveur Discord Audio Fake Creation, qui héberge de nombreux forums sur les algorithmes de dissimulation vocale tels que Google Takotron-2, Talknet, Forw ardTakotron, Coqui-ai-TTS et Glow-TTS, et d'autres.
Deepfakes en temps réel
Étant donné que les conversations téléphoniques sont interactives, la fraude par voix off ne peut raisonnablement pas être réalisée avec des images de haute qualité et « cuites », et dans les deux cas de fraude par voix off, nous pouvons raisonnablement supposer que l'orateur utilise une fausse voix en direct et en temps réel. structure.
L'usurpation d'identité en temps réel a récemment été mise à l'honneur avec l'avènement de DeepFaceLive, une implémentation en temps réel de la suite deepfake DeepFaceLab, qui peut améliorer les célébrités ou d'autres identités saisissez des images de caméra en direct. Bien que les utilisateurs d'Audio Fakes Discord et de DeepFaceLab Discord soient très intéressés par la combinaison des deux technologies dans un seul cadre d'apprentissage en profondeur vidéo + audio, aucun produit de ce type n'a encore clairement émergé.