Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4129

Incidents associés

Incident 80510 Rapports
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
La sophistication de l'opération menée par l'IA contre un sénateur laisse entrevoir l'avenir des stratagèmes deepfake
apnews.com · 2024

Washington (AP) — Une opération de deepfake avancée a ciblé ce mois-ci le sénateur Ben Cardin, président démocrate de la commission des relations étrangères du Sénat, selon le Bureau de la sécurité du Sénat, le dernier signe que des acteurs malveillants se tournent vers l’intelligence artificielle pour tenter de duper de hauts responsables politiques aux États-Unis.

Les experts pensent que des stratagèmes de ce type deviendront plus courants maintenant que les barrières techniques qui existaient autrefois autour de l’intelligence artificielle générative ont diminué. L’avis de la sécurité du Sénat envoyé aux bureaux du Sénat lundi indiquait que la tentative « se distingue par sa sophistication technique et sa crédibilité ».

Le stratagème était centré sur Dmytro Kuleba, l’ancien ministre ukrainien des Affaires étrangères. Le bureau de Cardin a reçu un e-mail d’une personne qu’ils pensaient être Kuleba, selon l’avis, un responsable que Cardin connaissait d’une réunion passée.

Lorsque les deux se sont rencontrés pour un appel vidéo, la connexion « était cohérente en apparence et en son avec les rencontres passées ». Ce n’est que lorsque l’appelant se faisant passer pour Kuleba a commencé à poser des questions comme « Soutenez-vous les missiles à longue portée sur le territoire russe ? « J’ai besoin de connaître votre réponse », a déclaré Cardin et son équipe, qui soupçonnaient que « quelque chose n’allait pas », selon l’avis du Sénat.

« Le président a continué à poser au sénateur des questions à connotation politique concernant les prochaines élections », probablement pour essayer de l’inciter à commenter un candidat politique, selon l’avis de Nicolette Llewellyn, la directrice de la sécurité du Sénat. « Le sénateur et son équipe ont mis fin à l’appel et ont rapidement contacté le Département d’État qui a vérifié qu’il ne s’agissait pas de Kuleba. »

Cardin a décrit mercredi la rencontre comme « un acteur malveillant engagé dans une tentative trompeuse d’avoir une conversation avec moi en se faisant passer pour une personne connue. »

« Après avoir immédiatement compris que la personne avec laquelle je discutais n’était pas celle qu’elle prétendait être, j’ai mis fin à l’appel et mon bureau a pris des mesures rapides, alertant les autorités compétentes », a déclaré Cardin. « Cette affaire est désormais entre les mains des forces de l’ordre et une enquête approfondie est en cours. »

Le bureau de Cardin n’a pas répondu à une demande d’informations supplémentaires.

L’intelligence artificielle générative peut utiliser une puissance de calcul massive pour modifier numériquement ce qui apparaît sur une vidéo, en changeant parfois l’arrière-plan ou le sujet d’une vidéo en temps réel. La même technologie peut également être utilisée pour modifier numériquement l’audio ou les images.

Une technologie comme celle-ci a déjà été utilisée dans des stratagèmes malveillants.

Un employé du secteur financier de Hong Kong a payé 25 millions de dollars à un escroc qui a utilisé l’intelligence artificielle pour se faire passer pour le directeur financier de l’entreprise. Un consultant politique a utilisé l’intelligence artificielle pour imiter la voix du président Joe Biden et exhorte les électeurs à ne pas voter lors des primaires présidentielles du New Hampshire, ce qui a conduit le consultant à faire face à plus de deux douzaines d’accusations criminelles et à des millions de dollars d’amendes. Et les experts en soins aux Américains âgés craignent depuis longtemps que les fausses informations alimentées par l’intelligence artificielle ne dynamisent les escroqueries financières ciblant les personnes âgées.

Les responsables de la sécurité du Sénat et les experts en intelligence artificielle estiment que ce n’est peut-être qu’un début, étant donné que les récents progrès technologiques ont rendu des stratagèmes comme celui contre Cardin non seulement plus crédibles, mais aussi plus faciles à mettre en œuvre.

« Ces derniers mois, la technologie permettant de diffuser un deepfake vidéo en direct et un deepfake audio en direct est devenue de plus en plus facile à intégrer ensemble », a déclaré Rachel Tobac, experte en cybersécurité et PDG de SocialProof Security, qui a ajouté que les itérations précédentes de cette technologie avaient des indices évidents qu’elles étaient fausses, allant du mouvement maladroit des lèvres aux personnes qui clignent des yeux en sens inverse.

« Je m’attends à ce que davantage d’incidents de ce genre se produisent à l’avenir », a déclaré Siwei Lyu, expert en intelligence artificielle et professeur à l’Université de Buffalo. « Toute personne ayant une intention malveillante en tête a désormais la capacité de mener ce type d’attaque. Ces attaques peuvent provenir d’un point de vue politique, mais aussi d’un point de vue financier, comme la fraude ou le vol d’identité. »

Le mémo adressé au personnel du Sénat a fait écho à ce sentiment, en demandant aux membres du personnel de s’assurer que les demandes de réunion sont authentiques et en prévenant que « d’autres tentatives seront faites dans les semaines à venir ».

R. David Edelman, un expert en intelligence artificielle et en sécurité nationale qui a dirigé la politique de cybersécurité pendant des années à la Maison Blanche, a décrit le projet comme une « opération de renseignement sophistiquée » qui « semble assez proche de la pointe de la technologie » dans la façon dont elle combine l’utilisation de la technologie de l’intelligence artificielle avec des opérations de renseignement plus traditionnelles qui ont reconnu les liens entre Cardin et le responsable ukrainien.

« Ils ont reconnu la relation existante entre ces deux parties. Ils savaient comment elles pourraient interagir – le timing, le mode et la façon dont elles communiquent », a-t-il déclaré. « Il y a une sophistication dans l’opération de renseignement. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd