Incidents associés
D'après Fox News, nous apprenons ce matin qu'un imposteur a utilisé la technologie de l'IA pour se faire passer pour le secrétaire d'État américain Marco Rubio et communiquer avec des fonctionnaires élus et nommés. Greg Norman rapporte :
L'individu mystérieux se faisant passer pour un membre du cabinet du président Donald Trump a contacté des ministres des Affaires étrangères, un gouverneur américain et un membre du Congrès au moyen de messages vocaux et textuels assistés par intelligence artificielle imitant la voix et le style d'écriture de Rubio, a rapporté le Washington Post, citant un haut responsable américain et un câble du Département d'État…
Le câble indiquerait que l'usurpation d'identité aurait commencé mi-juin, lorsqu'une personne aurait créé un compte Signal avec le nom d'affichage Marco.Rubio@state.gov, qui n'est pas la véritable adresse e-mail de Rubio.
Le câble du 3 juillet ajouterait que le faux Rubio « a contacté au moins cinq personnes extérieures au Département, dont trois ministres des Affaires étrangères, un gouverneur américain et un membre du Congrès américain ». « Le Département d'État enquête sur l'imitateur de l'IA de Rubio qui a contacté des responsables américains et étrangers », 9 juillet 2025.
Un haut responsable américain a qualifié la tentative de « peu sophistiquée ». Cependant, si l'on en croit l'expérience passée, ces tentatives de deep falsification deviendront de plus en plus sophistiquées avec le temps.
Deep Media, une entreprise de détection de deepfakes, propose des informations relativement récentes (17 février 2025) sur la croissance rapide des deepfakes : « Campagnes de désinformation : les deepfakes politiques ont bondi de 300 % au cours des deux dernières années, impactant les élections et le débat public. »
Malheureusement, les conseils proposés pour les détecter sans assistance électronique ne sont pas très rassurants. Par exemple, « Les voix deepfakes présentent souvent de légères distorsions robotiques ou des intonations artificielles. » et « Attention aux sons qui ne correspondent pas parfaitement aux mouvements des lèvres. »
Bien sûr, et combien de temps les faussaires mettront-ils à corriger ces erreurs ?
Heureusement, les méthodes électroniques peuvent apporter des éclaircissements :
Les recherches inversées d’images et de vidéos peuvent révéler si le contenu a été modifié ou généré par l’IA.
Les outils de détection par l'IA analysent les empreintes numériques à la recherche de modèles synthétiques. « Comment détecter les deepfakes en 2025 : Le défi croissant de la manipulation générée par l'IA »
De tels indices seraient plus difficiles à corriger, car ils sont inhérents à la technologie. Sans surprise, Deep Media propose un outil de détection, avertissant : « À mesure que les deepfakes se perfectionnent, les méthodes de vérification traditionnelles ne suffiront plus. En 2025, la détection par l'IA en temps réel deviendra la norme du secteur en matière d'authentification. »
C'est probablement une estimation juste, et Deep Media aura bientôt de nombreux concurrents dans un monde où voir n'est plus croire, comme le disait le proverbe.
La détection des deepfakes devrait être une offre standard des systèmes informatiques.