Incidents associés
La police des Émirats arabes unis enquête sur un braquage de banque au cours duquel des criminels auraient utilisé une intelligence artificielle (IA) deepfake pour cloner la voix du directeur de l'entreprise et convaincre le directeur de la banque de transférer 35 millions de dollars.
Alors que la technologie deepfake évolue et offre de nouvelles opportunités, les menaces qui en découlent évoluent également. Alors que certains pensaient que les pertes d'emplois liées à l'automatisation seraient la principale préoccupation dans une société dominée par l'IA, une nouvelle vague de défis est apparue. La reconnaissance faciale et les deepfakes audio et vidéo (créés par la manipulation des voix et des apparences), lorsqu'ils sont utilisés à mauvais escient, peuvent constituer une grave menace pour la vie privée et la sécurité, comme l'ont montré les derniers cas de fraude.
Astuce élaborée par Deep Voice
Début 2020, à Hong Kong, un directeur de banque a reçu ce qu'il croyait être un appel vocal du directeur d'une entreprise dont il connaissait la voix et avec qui il avait parlé à plusieurs reprises. Ce directeur l'appelait pour lui annoncer une bonne nouvelle et lui demander une faveur : autoriser des transferts de 35 millions de dollars afin de permettre l'acquisition de l'entreprise.
Le directeur a affirmé avoir engagé un avocat, Martin Zelner, pour coordonner l'acquisition. Le directeur de la banque a pu consulter les courriels du directeur et de M. Zelner dans sa boîte de réception, confirmant les montants exacts des transferts. Ignorant l'existence de la technologie Deep Voice et muni d'une confirmation écrite, il a agi en conséquence. Il a transféré la totalité de la somme sur plusieurs comptes aux États-Unis et, en un clin d'œil, 35 millions de dollars ont disparu. Les enquêteurs émiratis chargés de l'enquête estiment qu'au moins 17 personnes étaient impliquées dans cette escroquerie élaborée.
Nous sommes actuellement sur le point de voir des acteurs malveillants réorienter leur expertise et leurs ressources vers l'utilisation des technologies les plus récentes pour manipuler des personnes qui ignorent innocemment l'existence même des deepfakes.
La première tentative de fraude de ce type signalée a eu lieu au Royaume-Uni en 2019 : des fraudeurs ont tenté de voler 240 000 dollars à une entreprise du secteur de l'énergie](https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402) en imitant la voix du PDG grâce à l'IA. Contrairement à Hong Kong, cette tentative a échoué, car elle a été identifiée à temps comme une fraude.
L'IA a franchi la vallée de l'étrange
Si le système de Hong Kong vous paraît peu convaincant et que vous croyez en votre capacité à distinguer une voix ou un visage humain de ceux créés par l'IA, une nouvelle étude, publiée dans les Actes de l'Académie nationale des sciences, va bouleverser vos convictions. Menée par Hany Farid, professeur à l'Université de Californie à Berkeley, et Sophie J. Nightingale, maître de conférences à l'Université de Lancaster, en Angleterre, cette étude suggère que nous sommes arrivés à un stade où les humains ne peuvent plus distinguer les visages réels des visages créés par l'IA.
Les profils en ligne frauduleux en sont un bon exemple. Les photos d'identité frauduleuses. Pourtant, les photos sont utilisées à des fins malveillantes… Mais là où les choses vont vraiment mal tourner, c'est avec les vidéos et l'audio. > Hany Farid, professeur à l'Université de Californie
Selon l'étude, nous aurions légèrement plus de chances de choisir avec précision entre une image réelle et une image synthétique si nous tirions à pile ou face. Les participants à l'étude ont été capables de reconnaître les fausses images moins de la moitié du temps. Plus précisément, le score moyen était de 48,2 %. Nous pouvons affirmer avec certitude que les créations d'IA contemporaines ont franchi la vallée de l'étrange (uncanny valley) (https://www.verywellmind.com/what-is-the-uncanny-valley-4846247).
Le plus inquiétant, cependant, est la partie de l'étude montrant que les gens ont 7,7 % plus tendance à faire confiance aux images générées par l'IA qu'aux vrais visages. Lorsqu'on leur a demandé d'évaluer un ensemble de visages réels et fictifs en fonction du sentiment de fiabilité, les participants ont trouvé que les visages générés par l'IA étaient 7,7 % plus fiables que les vrais. Cette découverte jette un nouvel éclairage sur l'idée reçue selon laquelle « ça ne pourrait jamais m'arriver », une idée fausse qui peut s'avérer très dangereuse dans le monde actuel en constante évolution.
Nous avons été vraiment surpris par ce résultat, car notre motivation était de trouver un moyen indirect d'améliorer nos performances, et nous pensions que la confiance serait ce moyen, les vrais visages suscitant ce sentiment de confiance.
Sophie J. Nightingale, maître de conférences à l'Université de Lancaster, Angleterre
Protégez-vous
Aussi inquiétantes que soient ces découvertes, il existe des habitudes que nous pouvons adopter pour minimiser nos risques d'être victimes de la technologie deepfake et d'autres escroqueries :
- Gardez constamment à l'esprit que les avatars sont parmi nous et largement présents. -- Tout ce que vous voyez en ligne n'est pas forcément réel. En réalité, les escroqueries et les attaques de phishing se multiplient de jour en jour, et il devient presque impossible de les détecter à l'œil nu.
- Obtenez toute l'aide dont vous avez besoin – il existe d'excellentes solutions de sécurité avancées, comme Lookout, qui offrent une protection contre les logiciels malveillants et la navigation sécurisée. Elles analysent tous les liens sur lesquels vous cliquez sur les réseaux sociaux, les SMS et en ligne, puis bloquent les menaces avant qu'elles ne puissent vous nuire.
- Faites toujours un effort supplémentaire pour identifier une entreprise ou une personne qui vous incite à faire quelque chose ou vous demande des informations sensibles. Le sentiment d'urgence est une astuce courante pour convaincre les gens de divulguer rapidement des informations. Adressez-vous directement à la source (par téléphone ou en personne si nécessaire) pour vérifier l'authenticité de la demande. Ne partagez jamais d'informations numériques si vous ne pouvez pas valider son identité avec une certitude absolue.