Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5316

Incidents associés

Incident 62815 Rapports
Fake Biden Voice in Robocall Misleads New Hampshire Democratic Voters in 2024 Primary Election

Loading...
Le FBI met en garde contre de faux SMS et des appels deepfakes se faisant passer pour de hauts responsables américains
cyberscoop.com · 2025

Le FBI a annoncé jeudi que des acteurs malveillants se faisaient passer pour de hauts fonctionnaires américains dans le cadre d'une campagne de SMS et de messages vocaux, utilisant des messages d'hameçonnage et des enregistrements audio générés par l'IA pour inciter d'autres responsables gouvernementaux à céder l'accès à leurs comptes personnels.

L'avertissement fournit peu de détails sur cette campagne, qui a débuté en avril et semble se poursuivre. Les messages, sous forme de SMS ou de messages audio truqués de hauts fonctionnaires américains, étaient principalement envoyés à des « hauts fonctionnaires fédéraux ou d'État américains, actuels ou anciens, et à leurs contacts » pour accéder à leurs comptes.

Le FBI recommande désormais au public : « Si vous recevez un message prétendant provenir d'un haut fonctionnaire américain, ne présumez pas qu'il est authentique. »

Il s'agit du dernier exemple en date d'acteurs malveillants utilisant l'IA et des techniques de truquage pour imiter de manière réaliste la voix et l'image d'autrui. À mesure que les grands modèles linguistiques se sont multipliés et ont amélioré leur capacité à créer des images vidéo et audio réalistes, leur utilisation dans les stratagèmes d'hameçonnage et les campagnes d'escroquerie a explosé.

L'utilisation la plus connue de cette technologie jusqu'à présent est peut-être l'usurpation d'identité par deepfake du président de l'époque, Joe Biden, à l'approche des primaires présidentielles du New Hampshire en 2024. Le consultant politique Steve Kramer, en collaboration avec le candidat démocrate aux primaires, Dean Phillips, a supervisé la création de cet audio, qui conseillait aux démocrates de ne pas se rendre aux urnes et qui a été envoyé aux électeurs quelques jours avant les primaires.

Kramer a été condamné à une amende de 6 millions de dollars par la FCC pour cet incident et fait l'objet de poursuites pénales pour tentative de suppression du vote en se faisant passer pour un candidat du New Hampshire.

Mais l'utilisation de deepfakes audio dans des escroqueries financières plus courantes et des opérations d'espionnage et de cybercriminalité plus sophistiquées a fortement augmenté depuis l'apparition de cette technologie.

Pour ajouter aux inquiétudes, le ciblage apparent de comptes personnels dans cette campagne intervient alors que des médias ont rapporté que plusieurs membres haut placés de l'administration Trump communiquent et coordonnent la politique du gouvernement américain depuis leurs téléphones personnels et utilisent des versions tierces non sécurisées applications de messagerie chiffrées comme Signal.

Les protections contre l'exploitation de ces technologies sont limitées, hormis la vigilance et le respect des conseils de sécurité habituels, comme ne pas faire confiance aux appelants inconnus, vérifier les identités en appelant les numéros officiels et utiliser l'authentification multifacteur pour sécuriser les comptes.

Lors d'une audition à la Chambre des représentants le même jour, le président de la Commission fédérale du commerce, Andrew Ferguson, a déclaré que la lutte contre l'usurpation d'identité par l'IA était l'une des principales priorités de l'agence, notamment grâce à de nouvelles lois comme la loi Take It Down Act (https://www.commerce.senate.gov/2025/4/take-it-down-act-passes-the-house-heads-to-president-trump-s-desk).

« J'ignore si quelqu'un a déjà reçu un appel d'un proche usurpé, mais j'ai des amis qui ont reçu des appels de membres de leur famille usurpés », a déclaré M. Ferguson aux législateurs. « C'est une expérience véritablement terrifiante. »

John Hultquist, analyste en chef chez Google Threat Intelligence Group, a déclaré dans un courriel adressé à CyberScoop que « les adversaires pouvaient auparavant falsifier du contenu, mais l'IA a certainement facilité la tâche et leur a permis de le faire à grande échelle. »

« Ils utilisent l'IA pour fabriquer des vidéos, du texte et de l'audio depuis quelques années maintenant », a-t-il ajouté. « Et ils s'améliorent clairement. »

Cet article a été mis à jour le 15 mai avec les commentaires de Hultquist, président de la FTC chez Google.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd