Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5525

Incidents associés

Incident 114123 Rapports
Purported AI Voice Cloning Used to Impersonate Secretary of State Marco Rubio

Loading...
L'imposteur Marco Rubio : les experts affirment que les deepfakes de voix et de styles d'écriture par l'IA constituent une « escalade dangereuse »
thenationalnews.com · 2025

L'intelligence artificielle a été utilisée pour usurper la voix du secrétaire d'État américain Marco Rubio  et passer des appels à des ministres des Affaires étrangères et à des responsables américains, a confirmé mardi le département d'État, suscitant de nouvelles inquiétudes quant à l'utilisation croissante des deepfakes.

Un inconnu se faisant passer pour M. Rubio a créé un compte sur l'application de messagerie Signal à la mi-juin, sous le pseudonyme « marco.rubio@state.gov », pour contacter au moins trois ministres des Affaires étrangères, un sénateur et un gouverneur américains, selon une note initialement rapportée par le Washington Post. L'imposteur a utilisé l'IA pour imiter la voix et le style d'écriture de M. Rubio.

La porte-parole Tammy Bruce a déclaré que le Département d'État suivait la situation de près et s'y attaquait.

« Le ministère prend très au sérieux sa responsabilité de protéger ses informations et prend continuellement des mesures pour améliorer sa cybersécurité afin de prévenir de futurs incidents pour des raisons de sécurité », a déclaré Mme Bruce.

La tentative d'usurpation d'identité de M. Rubio met en lumière la montée des contenus « deepfakes » (https://www.thenationalnews.com/future/technology/2025/06/24/facebook-iraqi-kurdish-ai-audio-oversight-board/), dans lesquels l'IA est utilisée pour manipuler des médias, notamment des séquences vidéo, des images et des enregistrements audio.

Lors des primaires démocrates du New Hampshire l'année dernière, des habitants ont signalé avoir reçu des appels automatisés deepfakes de la part de Joe Biden, alors candidat à sa réélection. Lors des élections slovaques de l'année dernière, un enregistrement audio deepfake, devenu viral, a prétendument présenté un candidat expliquant comment il avait truqué les élections.

Lorsque l'IA facilite l'infiltration des gouvernements, elle peut engendrer des vulnérabilités affectant la sécurité nationale, et il devient de plus en plus difficile de distinguer le vrai du faux.

Une étude réalisée en 2023 par l'University College London a révélé que les humains étaient incapables de détecter avec précision plus d'un quart des échantillons de discours audio deepfakes.

L'étude a été menée aux débuts de l'IA audio et des outils, qui se sont depuis considérablement améliorés. Certaines applications d'IA plus récentes ne nécessitent que quelques extraits audio pour reproduire fidèlement les voix et dire à peu près n'importe quoi, allant même jusqu'à imiter les idiosyncrasies de la personne qui parle.

Avec la généralisation croissante de l'IA, des efforts sont en cours pour créer une technologie permettant de signaler les contenus deepfakes.

En 2022, l'Université Mohamed bin Zayed d'intelligence artificielle des Émirats arabes unis a déposé un brevet américain pour un « transformateur vidéo pour la détection des deepfakes » (https://www.thenationalnews.com/future/2024/02/07/why-the-deepfake-video-detection-race-is-heating-up/), qui consisterait en un « dispositif d'affichage lisant la vidéo potentiellement truquée et indiquant si elle est réelle ou fausse ».

Hao Li, professeur associé de vision par ordinateur à la MBZUAI, a déclaré à The National l'année dernière que des progrès considérables étaient réalisés dans la technologie de détection des deepfakes.

« Il devient de plus en plus difficile de créer un deepfake indétectable », a-t-il déclaré.

Cependant, les tentatives d'usurpation d'identité de représentants gouvernementaux pourraient se généraliser dans les mois et les années à venir.

Leah Siskind, chercheuse en IA à la Fondation pour la défense des démocraties, a déclaré que la tromperie alimentée par l'IA constitue une nouvelle frontière pour les opérations d'influence.

« Il s'agit d'un enjeu urgent de sécurité nationale, aux graves répercussions diplomatiques », a-t-elle déclaré.

« Nous avons constaté d'autres cas de deepfakes de hauts fonctionnaires utilisés pour accéder à des comptes personnels, mais exploiter l'IA pour influencer les relations diplomatiques et la prise de décision constitue une escalade dangereuse. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4