Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4111

Incidents associés

Incident 80510 Rapports
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
Un sénateur pris pour cible dans un appel deepfake avec un « acteur malveillant » se faisant passer pour un Ukrainien
washingtonpost.com · 2024

Le président de la commission des relations étrangères du Sénat a été attiré dans un appel vidéo avec un « acteur malveillant » utilisant probablement une technologie d'intelligence artificielle « deepfake » pour se faire passer pour un haut responsable ukrainien, ont déclaré jeudi des législateurs et des assistants du Congrès.

Le sénateur Ben Cardin (D-Md.) a été contacté par e-mail la semaine dernière par une personne se faisant passer pour Dmytro Kuleba, l'ancien ministre ukrainien des Affaires étrangères, pour avoir une conversation sur Zoom. Lors de l'appel vidéo avec le sénateur, la voix et l'apparence de la personne correspondaient à celles de Kuleba, mais Cardin est devenu méfiant lorsque l'homme a posé des questions inhabituelles liées aux prochaines élections, selon deux assistants du Sénat qui ont fourni des détails sur l'événement sous couvert d'anonymat car ils n'étaient pas autorisés à parler aux médias. La personne prétendant être Kuleba a également demandé si le sénateur soutenait la fourniture de missiles à longue portée dans le conflit Ukraine-Russie.

L'appel a été rapporté pour la première fois par Punchbowl News.

« Ces derniers jours, un acteur malveillant a tenté de converser avec moi en se faisant passer pour une personne connue », a déclaré Cardin dans un communiqué. « Après avoir immédiatement compris que la personne avec laquelle je discutais n'était pas celle qu'elle prétendait être, j'ai mis fin à l'appel et mon bureau a réagi rapidement, alertant les autorités compétentes. Cette affaire est désormais entre les mains des forces de l'ordre et une enquête approfondie est en cours. »

L'incident a fait craindre que davantage de législateurs puissent être ciblés par une technologie sophistiquée de « deepfake » qui permet aux gens d'usurper la voix et l'apparence de personnalités politiques. Le personnel du comité a reçu pour instruction de faire preuve d'une prudence accrue avec les communications externes, en accordant une attention particulière aux numéros et aux e-mails des personnes entrantes prétendant être des personnes puissantes.

Cardin, qui prend sa retraite à la fin de cette année, n'est pas le seul élu à être la proie de ce type de stratagème. Plus tôt cette année, le sénateur britannique de l'époque, Le ministre des Affaires étrangères David Cameron a annoncé avoir participé à un faux appel vidéo par une personne se faisant passer pour Petro Porochenko, l'ancien président de l'Ukraine. Les maires de plusieurs villes européennes ont également été attirés dans un appel vidéo avec une personne se faisant passer pour le maire de Kiev, a rapporté le Guardian à l'époque.

Kuleba a des liens étroits avec des législateurs et de hauts responsables américains depuis le début de l'invasion à grande échelle de la Russie en 2022. Beaucoup ont appris à connaître Kuleba et ses manières, ce qui le rend potentiellement plus difficile à imiter que d'autres.

Dans un communiqué, Kuleba a déclaré qu'il était "sûr à 99 %" que le deepfake avait été initié par des "farceurs russes" et a averti les gens de rester vigilants.

"La meilleure chose que vous puissiez faire pour éviter de vous faire piéger par le deepfake est de toujours vérifier la source et de ne pas dire la vérité à des inconnus", a-t-il écrit en ukrainien.

Les responsables américains ont averti que des acteurs étrangers utilisent la technologie du deepfake pour semer la discorde et la désinformation. Au début de l'invasion russe de l'Ukraine, un deepfake du président Volodymyr Zelensky est apparu en ligne, demandant aux Ukrainiens de se rendre.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd