Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2820

Loading...
La campagne pré-Deepfake cible les critiques de Poutine
securityweek.com · 2023

La Russie poursuit sa campagne de désinformation autour de la guerre en Ukraine grâce à une ingénierie sociale avancée fournie par un groupe menaçant suivi sous le nom de TA499.

Selon un rapport de Proofpoint, les cibles TA499 Des politiciens américains et européens, des hommes d'affaires et des célébrités de premier plan qui se sont prononcés contre l'invasion de Poutine. L'objectif principal est de persuader les victimes de participer à des appels téléphoniques ou à des chats vidéo à partir desquels des extraits pro-Poutine peuvent être obtenus et publiés - discréditant ainsi tout commentaire anti-Poutine antérieur.

Il poursuit les efforts de la Russie pour briser le sentiment anti-russe en Amérique du Nord et dans l'UE avec des campagnes de désinformation. Le Parlement européen compte déjà de nombreux membres opposés à toute activité pro-ukrainienne – et la Russie cherche à en tirer parti.

TA499 semble être un groupe d'opérateurs de deux personnes publiquement connu sous le nom de Vovan et Lexus. On ne sait pas à quel point ils sont liés au gouvernement russe. Cependant, leurs opérations sont sophistiquées, complexes et ne semblent pas motivées financièrement. Proofpoint les classe comme « patriotiquement motivés » et « alignés sur l'État russe ».

L'opération commence par la prise de contact par e-mail ou téléphone de TA499 avec ses cibles. Bien que cette activité ait commencé avant l'invasion de l'Ukraine, "les campagnes de TA499 ont commencé à s'intensifier fin janvier 2022, aboutissant à des tentatives de plus en plus agressives après l'invasion de l'Ukraine par la Russie fin février 2022", expliquent les chercheurs.

En mars 2022, les e-mails ou les appels téléphoniques ont commencé à se faire passer pour le Premier ministre ukrainien Denys Shmyhal et son assistant supposé. Des e-mails prétendaient provenir d'ambassades officielles. avec des sujets tels que "Demande du Premier ministre ukrainien". Par exemple (bien que non prouvé, mais évalué avec une « haute confiance », être TA499), le secrétaire d'État britannique à la Défense, Ben Wallace, a tweeté le 17 mars 2022 : « Aujourd'hui, une tentative a été faite par un imposteur prétendant être PM ukrainien pour me parler. Il a posé plusieurs questions trompeuses et après être devenu suspect, j'ai mis fin à l'appel.

D'autres approches de TA499, antérieures à l'invasion de l'Ukraine, ont ciblé des individus qui ont fait des déclarations positives sur le chef de l'opposition russe emprisonné Alexei Navalny - des courriels se sont fait passer pour des messages de Leonid Volkov, chef de cabinet de Navalny.

Le but de ces contacts est de persuader la cible de se joindre à une conversation téléphonique ou à un appel vidéo à distance avec TA499. En cas de succès, le groupe engage une conversation dans le but d'obtenir des déclarations contradictoires destinées à discréditer les déclarations anti-Kremlin antérieures. Proofpoint ne pense pas que TA499 ait utilisé la technologie deepfake dans ces échanges, s'appuyant plutôt sur un acteur - par exemple, "Lexus" a prétendu être Volkov dans des attaques sur le thème de Navalny.

En cas de succès, les enregistrements ont été rendus publics; par exemple, sur YouTube et RuTube. "Il existe des vidéos déjà accessibles au public d'interactions réussies précédentes", ont déclaré les chercheurs à SecurityWeek. Mais ils pensent que les enregistrements YouTube ont déjà été supprimés.

"Selon des rapports open source, les éléments suivants ont été les cibles de l'acteur de la menace que nous suivons sous le nom de TA499", ont déclaré les chercheurs à SecurityWeek : "Le maire de Vienne Michael Ludwig, ainsi que d'autres maires de Varsovie, Budapest, Berlin et Madrid . Les célébrités JK Rowling et Elton John ont également été ciblées dans le passé.

"Dans l'ensemble, TA499 n'a pas ciblé en fonction des rôles du gouvernement", ont-ils poursuivi, "mais en fonction des commentaires faits sur la guerre russo-ukrainienne, des commentaires négatifs généraux sur la Russie et Poutine, et de l'implication de responsables gouvernementaux, de célébrités ou d'éminents individus exécutant associations caritatives en faveur de l'Ukraine. "

Certains rapports suggèrent que TA499 a utilisé la technologie deepfake. Proofpoint ne peut pas le confirmer, mais avertit que même s'ils ne l'ont pas fait, ils le feront probablement à un moment donné dans le futur. Cette menace, et d'autres menaces similaires, deviendront plus efficaces à mesure que la technologie s'améliorera. "Il est probable que si TA499 n'a pas déjà adopté les deepfakes, ils le feront à un moment donné", ont déclaré les chercheurs.

Il est possible que TA499 ait commencé comme un groupe de farceurs patriotiques. "Ils ont des personnages qui non seulement publient en ligne le matériel discuté dans ce rapport, mais effectuent également des reconstitutions sur les médias russes parrainés par l'État et assistent à des conférences", déclare Proofpoint. "La guerre entre la Russie et l'Ukraine ne devrait pas se terminer à court terme. et l'Ukraine continue de recueillir le soutien d'organisations du monde entier, Proofpoint évalue avec une grande confiance que TA499 tentera de poursuivre ses campagnes en faveur de son contenu d'influence et de son programme politique.

La guerre a donné aux farces une incitation sérieuse et préjudiciable. Jusqu'à présent, il est probable que cela ait été réalisé sans l'utilisation de la technologie deepfake. Il s'agit cependant d'un avertissement clair sur la probabilité d'attaques d'ingénierie sociale encore plus convaincantes à l'avenir.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd