Incidents associés
(THE CONVERSATION) Quelqu'un a utilisé l'intelligence artificielle pour créer un clone vocal, ou deepfake, du secrétaire d'État Marco Rubio et l'a utilisé pour laisser des messages vocaux à plusieurs responsables, selon un article du Washington Post du 8 juillet 2025. L'article cite un câble du Département d'État indiquant que l'imposteur a « contacté au moins cinq personnes extérieures au Département, dont trois ministres des Affaires étrangères, un gouverneur américain et un membre du Congrès américain » via l'application de messagerie Signal.
L'imposteur a laissé des messages vocaux à au moins deux des responsables et a également utilisé l'IA pour imiter le style d'écriture de Rubio dans ses SMS, selon l'article. Les communications de l'imposteur ont commencé à la mi-juin.
Le FBI a lancé une alerte le 15 mai concernant une campagne de SMS et de messages vocaux malveillants en cours, au cours de laquelle des acteurs malveillants se sont fait passer pour de hauts responsables américains. L'alerte précisait que cette campagne incluait des attaques de vishing (hameçonnage vocal) (https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/). Le vishing est un mot-valise formé des mots « voice » et « phishing » (hameçonnage vocal). Il désigne l'utilisation de deepfakes vocaux pour inciter les victimes à fournir des informations ou de l'argent, ou pour compromettre leurs systèmes informatiques.
En tant que chercheurs en cybersécurité, nous constatons que les progrès constants des algorithmes d'apprentissage profond, de l'édition et de l'ingénierie audio, ainsi que de la génération de voix synthétique, permettent de plus en plus de simuler de manière convaincante la voix d'une personne.
Pire encore, des chatbots comme ChatGPT sont capables de générer des scripts réalistes avec des réponses adaptatives en temps réel. En combinant ces technologies avec la génération de voix, un deepfake passe d'un enregistrement statique à un avatar vivant et réaliste, capable de tenir une conversation téléphonique de manière convaincante.
Clonage d'une voix
Autrefois, créer une copie audio convaincante et de haute qualité de la voix d'une personne nécessitait des compétences artistiques et techniques, un matériel performant et un échantillon conséquent de la voix cible. Malheureusement, ce n'est plus le cas.
Aujourd'hui, un secteur en pleine expansion propose des services accessibles permettant de générer des clones vocaux de qualité moyenne à élevée pour un prix modique. Certains outils parmi les plus avancés ne nécessitent désormais qu'une minute, voire quelques secondes, de données vocales pour produire un son de synthèse suffisamment convaincant pour tromper les auditeurs, parfois même les proches de l'orateur.
Protection contre les escroqueries et la désinformation
En janvier 2024, la multinationale britannique de conception et d'ingénierie Arup a signalé à la police de Hong Kong avoir été victime d'une escroquerie de 25 millions de dollars américains (https://www.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk) par des fraudeurs utilisant de fausses voix. Selon une enquête menée en 2024 auprès de plus de 3 000 adultes au Royaume-Uni, plus d'un quart d'entre eux ont déclaré avoir été victimes d'une escroquerie par deepfake vocal (https://www.cnn.com/2024/09/18/tech/ai-voice-cloning-scam-warning/index.html) au cours des 12 mois précédents.
Au sein du projet DeFake, composé du Rochester Institute of Technology, de l'Université du Mississippi et de l'Université d'État du Michigan, ainsi que d'autres chercheurs, nous travaillons d'arrache-pied pour détecter les deepfakes vidéo et audio et limiter leurs effets néfastes. Il existe également des mesures simples et quotidiennes que vous pouvez prendre pour vous protéger.
Prudence face aux appels inattendus, même de personnes que vous connaissez bien. Il n'est pas nécessaire de planifier chaque appel, mais il est conseillé d'envoyer au moins un e-mail ou un SMS à l'avance. De plus, ne vous fiez pas à l'identification de l'appelant, car elle peut être falsifiée. Par exemple, si vous recevez un appel d'une personne prétendant représenter votre banque, raccrochez et appelez directement la banque pour confirmer la légitimité de l'appel. Veillez à utiliser le numéro que vous avez noté, enregistré dans votre liste de contacts ou trouvé sur Google.
Soyez également vigilant avec vos informations personnelles, comme votre numéro de sécurité sociale, votre adresse, votre date de naissance, votre numéro de téléphone, votre deuxième prénom et même le nom de vos enfants et de vos animaux de compagnie. Les escrocs peuvent utiliser ces informations pour se faire passer pour vous auprès des banques, des agents immobiliers et autres, s'enrichissant ainsi tout en vous ruinant ou en ruinant votre crédit.
Voici un autre conseil : connaissez-vous vous-même. Plus précisément, identifiez vos biais et vulnérabilités intellectuelles et émotionnelles. C'est un bon conseil de vie en général, mais c'est essentiel pour vous protéger de la manipulation. Les escrocs cherchent généralement à démasquer vos inquiétudes financières, vos convictions politiques ou autres inclinations, quelles qu'elles soient, puis à en profiter.
Cette vigilance constitue également une bonne défense contre la désinformation utilisant les deepfakes vocaux. Les deepfakes peuvent être utilisés pour exploiter votre biais de confirmation, c'est-à-dire ce que vous êtes enclin à croire à propos de quelqu'un.
Si vous entendez une personne importante, qu'elle soit de votre communauté ou du gouvernement, dire quelque chose qui lui semble très inhabituel ou qui confirme vos pires soupçons à son égard, soyez prudent.
Cet article a été mis à jour le 8 juillet 2025 pour inclure l'information selon laquelle une personne aurait utilisé une technologie de clonage vocal pour se faire passer pour Rubio.
Cet article est republié par The Conversation sous licence Creative Commons. Lisez l'article original ici : https://theconversation.com/marco-rubio-impersonator-contacted-officials-using-ai-voice-deepfakes-computer-security-experts-explain-what-they-are-and-how-to-avoid-getting-fooled-201449.