Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4115

Incidents associés

Incident 80510 Rapports
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
Un appelant « deepfake » se fait passer pour un fonctionnaire ukrainien lors d’un échange avec un sénateur clé
nytimes.com · 2024

Un appelant « deepfake » s'est fait passer pour un haut responsable ukrainien lors d'une récente vidéoconférence avec le sénateur Benjamin L. Cardin, président de la commission des relations étrangères, ce qui ravive les craintes que les législateurs puissent devenir la cible d'acteurs malveillants cherchant à influencer la politique américaine ou à obtenir des informations sensibles.

Selon un avertissement envoyé par courriel par des responsables de la sécurité du Sénat aux bureaux des législateurs et obtenu par le New York Times, le bureau d'un sénateur a reçu jeudi dernier un courriel qui semblait provenir de Dmytro Kuleba, jusqu'à récemment ministre des Affaires étrangères de l'Ukraine, demandant à se connecter via Zoom. Lors de l'appel vidéo qui a suivi, la personne ressemblait et parlait comme M. Kuleba.

Mais le sénateur est devenu méfiant lorsque la personne se faisant passer pour M. Kuleba a commencé à agir de manière inhabituelle, ont écrit les responsables de la sécurité du Sénat, posant « des questions politiquement chargées en relation avec les prochaines élections » et exigeant un avis sur des questions sensibles de politique étrangère, comme le fait de savoir si le sénateur soutenait le tir de missiles à longue portée sur le territoire russe. Le sénateur a mis fin à l'appel et a signalé l'incident aux autorités du Département d'État, qui ont confirmé que la personne qui semblait être M. Kuleba était une usurpation d'identité.

Bien que l'e-mail du bureau de sécurité du Sénat ne précise pas que le sénateur était M. Cardin, deux responsables du Sénat au courant de l'affaire ont confirmé qu'il s'agissait du sénateur en question.

M. Cardin, un démocrate du Maryland, a également partiellement confirmé l'épisode dans une déclaration mercredi soir. Il y a reconnu que « ces derniers jours, un acteur malveillant s'est livré à une tentative trompeuse d'avoir une conversation avec moi en se faisant passer pour une personne connue ». M. Cardin n'a pas dit que l'individu était M. Kuleba ni fait référence à l'Ukraine.

L'opération a été rapportée plus tôt par Punchbowl News.

La technologie vidéo Deepfake utilise l’intelligence artificielle pour créer des vidéos de personnes fictives qui semblent réelles et qui parlent comme telles. Cette technologie a parfois été utilisée pour se faire passer pour des personnalités publiques, notamment une vidéo qui a circulé sur les réseaux sociaux en 2022 montrant faussement le président ukrainien Volodymyr Zelensky annonçant sa reddition en guerre avec la Russie.

M. Cardin prendra sa retraite à la fin de l’année. Mais cet épisode a ravivé les craintes que des acteurs étrangers puissent tenter de cibler des législateurs, en particulier maintenant dans le but d’influencer le résultat des élections de novembre.

On ne sait pas immédiatement qui a orchestré l’opération qui a visé M. Cardin. Les responsables du renseignement ont averti que des acteurs étrangers comme la Russie, l'Iran et la Chine exploitent l'intelligence artificielle, y compris les deepfakes, pour augmenter leurs efforts d'interférence électorale -- la Russie générant le plus de contenu, a déclaré cette semaine le Bureau du directeur du renseignement national.

Bien qu'il ne soit pas clair si la Russie était derrière l'usurpation d'identité de M. Kuleba, certaines des questions posées à M. Cardin pourraient particulièrement intéresser la Russie -- en particulier lorsque, selon le courrier électronique du bureau de sécurité du Sénat, l'usurpateur lui a demandé : "Soutenez-vous les missiles à longue portée sur le territoire russe ? J'ai besoin de connaître votre réponse".

Les responsables de la sécurité du Sénat ont mis en garde les législateurs contre la vigilance.

"Bien que nous ayons constaté une augmentation des menaces d'ingénierie sociale au cours des derniers mois et des dernières années, cette tentative se distingue par sa sophistication technique et sa crédibilité", a déclaré le courrier électronique du bureau de sécurité du Sénat, ajoutant qu'"il est probable que d'autres tentatives soient faites dans les semaines à venir".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd