Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5524

Incidents associés

Incident 114123 Rapports
Purported AI Voice Cloning Used to Impersonate Secretary of State Marco Rubio

Loading...
Cela devait arriver : le deepfake Marco Rubio appelle des responsables américains
mindmatters.ai · 2025

D'après Fox News, nous apprenons ce matin qu'un imposteur a utilisé la technologie de l'IA pour se faire passer pour le secrétaire d'État américain Marco Rubio et communiquer avec des fonctionnaires élus et nommés. Greg Norman rapporte :

L'individu mystérieux se faisant passer pour un membre du cabinet du président Donald Trump a contacté des ministres des Affaires étrangères, un gouverneur américain et un membre du Congrès au moyen de messages vocaux et textuels assistés par intelligence artificielle imitant la voix et le style d'écriture de Rubio, a rapporté le Washington Post, citant un haut responsable américain et un câble du Département d'État…

Le câble indiquerait que l'usurpation d'identité aurait commencé mi-juin, lorsqu'une personne aurait créé un compte Signal avec le nom d'affichage Marco.Rubio@state.gov, qui n'est pas la véritable adresse e-mail de Rubio.

Le câble du 3 juillet ajouterait que le faux Rubio « a contacté au moins cinq personnes extérieures au Département, dont trois ministres des Affaires étrangères, un gouverneur américain et un membre du Congrès américain ». « Le Département d'État enquête sur l'imitateur de l'IA de Rubio qui a contacté des responsables américains et étrangers », 9 juillet 2025.

Un haut responsable américain a qualifié la tentative de « peu sophistiquée ». Cependant, si l'on en croit l'expérience passée, ces tentatives de deep falsification deviendront de plus en plus sophistiquées avec le temps.

Deep Media, une entreprise de détection de deepfakes, propose des informations relativement récentes (17 février 2025) sur la croissance rapide des deepfakes : « Campagnes de désinformation : les deepfakes politiques ont bondi de 300 % au cours des deux dernières années, impactant les élections et le débat public. »

Malheureusement, les conseils proposés pour les détecter sans assistance électronique ne sont pas très rassurants. Par exemple, « Les voix deepfakes présentent souvent de légères distorsions robotiques ou des intonations artificielles. » et « Attention aux sons qui ne correspondent pas parfaitement aux mouvements des lèvres. »

Bien sûr, et combien de temps les faussaires mettront-ils à corriger ces erreurs ?

Heureusement, les méthodes électroniques peuvent apporter des éclaircissements :

Les recherches inversées d’images et de vidéos peuvent révéler si le contenu a été modifié ou généré par l’IA.

Les outils de détection par l'IA analysent les empreintes numériques à la recherche de modèles synthétiques. « Comment détecter les deepfakes en 2025 : Le défi croissant de la manipulation générée par l'IA »

De tels indices seraient plus difficiles à corriger, car ils sont inhérents à la technologie. Sans surprise, Deep Media propose un outil de détection, avertissant : « À mesure que les deepfakes se perfectionnent, les méthodes de vérification traditionnelles ne suffiront plus. En 2025, la détection par l'IA en temps réel deviendra la norme du secteur en matière d'authentification. »

C'est probablement une estimation juste, et Deep Media aura bientôt de nombreux concurrents dans un monde où voir n'est plus croire, comme le disait le proverbe.

La détection des deepfakes devrait être une offre standard des systèmes informatiques.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd