Incidents associés

Le clonage de voix par IA est utilisé dans un énorme cambriolage sur lequel enquêtent les enquêteurs de Dubaï, au milieu d'avertissements concernant l'utilisation par les cybercriminels de la nouvelle technologie.
Début 2020, un directeur de banque à Hong Kong a reçu un appel d'un homme dont il a reconnu la voix - un directeur d'une entreprise avec qui il avait déjà parlé. Le directeur avait une bonne nouvelle : son entreprise était sur le point de faire une acquisition, il avait donc besoin que la banque autorise des transferts à hauteur de 35 millions de dollars. Un avocat du nom de Martin Zelner avait été embauché pour coordonner les procédures et le directeur de la banque pouvait voir dans sa boîte de réception les courriels du directeur et de Zelner, confirmant l'argent nécessaire pour déménager où. Le directeur de la banque, estimant que tout semblait légitime, a commencé à effectuer les virements.
Ce qu'il ne savait pas, c'est qu'il avait été dupé dans le cadre d'une escroquerie élaborée, une escroquerie dans laquelle des fraudeurs avaient utilisé la technologie de la "voix profonde" pour cloner le discours du réalisateur, selon un document judiciaire découvert par Forbes dans lequel les U.A.E. a demandé l'aide d'enquêteurs américains pour retrouver 400 000 $ de fonds volés qui ont été versés sur des comptes américains détenus par la Centennial Bank. Les Émirats arabes unis, qui enquêtent sur le braquage car il a affecté des entités dans le pays, pensent qu'il s'agissait d'un stratagème élaboré, impliquant au moins 17 personnes, qui a envoyé l'argent volé sur des comptes bancaires à travers le monde.
Un peu plus de détails ont été donnés dans le document, sans qu'aucun des noms des victimes ne soit fourni. Le parquet de Dubaï, qui dirige l'enquête, n'avait pas répondu aux demandes de commentaires au moment de la publication. Martin Zelner, un avocat basé aux États-Unis, avait également été contacté pour commenter, mais n'avait pas répondu au moment de la publication.
Ce n'est que le deuxième cas connu de fraudeurs qui auraient utilisé des outils de formation de la voix pour effectuer un braquage, mais il semble avoir été beaucoup plus réussi que le premier, dans lequel les fraudeurs ont utilisé la technologie pour se faire passer pour le PDG d'une entreprise énergétique basée au Royaume-Uni. une tentative de vol de 240 000 $ en 2019, selon le Wall Street Journal.
Les E.A.U. montre à quel point ces escroqueries high-tech peuvent être dévastatrices et atterrit au milieu d'avertissements sur l'utilisation de l'IA pour créer de soi-disant images et voix profondément fausses dans la cybercriminalité.
"Les contrefaçons audio et visuelles profondes représentent le développement fascinant de la technologie du 21e siècle, mais elles sont aussi potentiellement incroyablement dangereuses et représentent une énorme menace pour les données, l'argent et les entreprises", déclare Jake Moore, ancien officier de police du département de police du Dorset au Royaume-Uni et maintenant expert en cybersécurité à la société de sécurité ESET. « Nous sommes actuellement à la veille d'acteurs malveillants qui transfèrent leur expertise et leurs ressources à l'utilisation des dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la fausse technologie profonde et même leur existence.
"La manipulation de l'audio, qui est plus facile à orchestrer que la création de fausses vidéos profondes, ne fera qu'augmenter en volume et sans l'éducation et la sensibilisation à ce nouveau type de vecteur d'attaque, ainsi que de meilleures méthodes d'authentification, davantage d'entreprises sont susceptibles d'être victimes de conversations très convaincantes.
Autrefois une technologie confinée au domaine des câpres fictives comme Mission : Impossible, le clonage de voix est désormais largement disponible. Diverses startups technologiques travaillent sur des technologies vocales d'IA de plus en plus sophistiquées, d'Aflorithmic de Londres à Respeecher d'Ukraine et Resemble.AI du Canada. La technologie a fait sensation ces derniers mois avec la révélation que feu Anthony Bourdain avait fait synthétiser sa voix pour un documentaire sur sa vie. Pendant ce temps, reconnaissant le potentiel d'utilisation malveillante de l'IA, une poignée d'entreprises, telles que la société de sécurité Pindrop, évaluée à 900 millions de dollars, affirment désormais pouvoir détecter les voix synthétisées et ainsi prévenir les fraudes.
Si des enregistrements de votre conversation sont disponibles en ligne, que ce soit sur les réseaux sociaux, sur YouTube ou sur le site Web d'un employeur, il se peut qu'une bataille secrète se déroule pour le contrôle de votre voix à votre insu.
MISE À JOUR : Après publication, les U.A.E. Le ministère des Affaires étrangères et de la Coopération internationale a contacté Forbes pour noter que la banque concernée se trouvait à Hong Kong, et non aux Émirats arabes unis, bien que les enquêteurs de Dubaï aient mené l'enquête. L'article a été mis à jour le 22 octobre 2022 pour refléter cela.
Dans un communiqué, SE Hamid Al Zaabi, directeur général des E.A.U. Le Bureau exécutif de la lutte contre le blanchiment d'argent et le financement du terrorisme, a ajouté : « Même en cas d'incidents se produisant en dehors des Émirats arabes unis, nous travaillerons en étroite collaboration avec des partenaires chargés de l'application de la loi dans le monde entier pour identifier et détecter les personnes qui se livrent sciemment à des pratiques trompeuses telles que la fraude par imposteur. . Les E.A.U. poursuivra alors dans toute la mesure de la loi ces individus, en veillant à ce qu'ils soient tenus responsables et traduits en justice rapidement.