Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5521

Incidents associés

Incident 114123 Rapports
Purported AI Voice Cloning Used to Impersonate Secretary of State Marco Rubio

Loading...
Deepfake : le secrétaire d'État américain Marco Rubio imité sur Signal
it-daily.net · 2025

Un inconnu se serait fait passer pour le secrétaire d'État américain Marco Rubio en diffusant des messages audio et textuels faussement authentiques sur la messagerie Signal. L'objectif de cette campagne était d'influencer les responsables politiques aux États-Unis et à l'étranger. Il s'agit d'un exemple extrêmement inquiétant de la menace croissante que représentent les deepfakes.

Usurpation d'identité via Signal : Cyberattaque contre les milieux politiques

Un attaquant, encore non identifié, se serait fait passer pour le secrétaire d'État américain Marco Rubio en utilisant des deepfakes. Il aurait envoyé des messages manipulés au nom de M. Rubio via la messagerie Signal, sous forme de texte et d'audio. Les destinataires n'étaient pas seulement des décideurs américains, mais aussi des ministres des Affaires étrangères d'autres pays.

Deepfakes : Faux vrais et dangereux

Ce qui semblait relever de la science-fiction il y a quelques années est aujourd'hui devenu un quotidien : grâce à l'intelligence artificielle, des voix, voire des personnalités entières, peuvent être imitées de manière convaincante. Pour les cybercriminels, il s'agit d'un outil puissant pour gagner la confiance des utilisateurs, diffuser de fausses informations ou manipuler les processus politiques.

Un expert en sécurité met en garde contre un risque croissant

Adam Marrè, RSSI d'Arctic Wolf et ancien agent du FBI, partage son point de vue sur les deepfakes et évalue leurs risques pour la société.

Les informations actuelles sont inquiétantes : un acteur malveillant jusque-là inconnu aurait utilisé l’intelligence artificielle pour se faire passer pour le secrétaire d’État américain Marco Rubio via un compte Signal et aurait contacté de hauts responsables du gouvernement américain et d’autres pays. Ce scénario illustre le fait que nous vivons dans un monde où, souvent, nous ne savons plus distinguer la vérité de la réalité lorsque nous parcourons des contenus en ligne.

Il existe désormais de nombreux exemples dans le monde entier d’utilisation de l’IA pour se faire passer pour des hommes politiques, des personnalités du monde des affaires et des célébrités. Cet incident souligne une fois de plus la nécessité de rester vigilants en permanence. L’année dernière, nous avons déjà constaté des tentatives d’influencer des élections grâce à du contenu généré par l’IA et la propagation de la désinformation.

Et il devient de plus en plus difficile de déterminer ce qui est authentique sur nos écrans ou dans nos boîtes de réception. Les experts en sécurité mettent en garde depuis longtemps contre les risques liés au contenu généré par l’IA et son potentiel à influencer l’opinion publique. Ces risques sont particulièrement inquiétants dans le contexte d’élections politiques majeures à travers le monde. Les acteurs malveillants et les hacktivistes à motivation politique ont un objectif clair et utilisent de plus en plus d’outils d’IA pour créer et diffuser de faux contenus tels que des vidéos, des images et des enregistrements audio. La société est de plus en plus alarmante. Nous sommes mal préparés à cela !

Des processus structurés sont donc nécessaires pour vérifier chaque communication. Se fier uniquement à l'instinct ne suffit plus. Nous devons être en mesure de vérifier de manière fiable si un message provient bien de la source indiquée. De plus, le débat social doit prendre une nouvelle direction : les plateformes qui hébergent et diffusent de tels contenus doivent être davantage tenues responsables. Elles doivent jouer un rôle central dans la vérification, l'étiquetage et la suppression des faux contenus.

Il est grand temps de considérer la désinformation basée sur l'IA comme un risque sociétal grave et de mettre en place de meilleures garanties, une législation plus stricte et des sanctions concrètes pour poursuivre les responsables de la diffusion de mensonges et de la déstabilisation de la société.

(vp/Arctic Wolf)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd