Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5351

Incidents associés

Incident 11111 Rapport
Reported AI-Generated Video Call Impersonation of Cryptocurrency Analyst Leads to Alleged Malware Installation and Account Theft

La CZ met en garde contre la vérification vidéo après l'arnaque Deepfake qui a touché un analyste
coinedition.com · 2025

Binance, le fondateur de Binance, Changpeng Zhao, a averti que la technologie deepfake, basée sur l'IA, rendait la vérification des appels vidéo peu fiable pour des raisons de sécurité. Il a également conseillé aux utilisateurs d'éviter d'installer des logiciels provenant de sources non officielles, même si la demande provient de leurs amis, car leurs comptes pourraient avoir été compromis.

L'avertissement de CZ fait suite à un piratage informatique sophistiqué impliquant l'analyste de cryptomonnaies Mai Fujimoto. L'analyste a perdu le contrôle de son compte X après avoir été victime d'une attaque deepfake lors d'un appel vidéo.

Zhao a souligné que les amis demandant l'installation de logiciels sont « très probablement piratés » et a souligné comment les cybercriminels exploitent les relations de confiance pour diffuser des logiciels malveillants. L'avertissement de l'ancien PDG de Binance met en lumière l'évolution des attaques d'ingénierie sociale, qui utilisent désormais une technologie d'IA avancée pour créer des usurpations d'identité de plus en plus convaincantes.

Une attaque deepfake exploite les relations de confiance

Mai Fujimoto a expliqué comment son compte X principal, @missbitcoin_mai, a été piraté le 14 juin par une attaque deepfake soigneusement planifiée. L'attaque a débuté lorsque le compte Telegram de son amie a été compromis, permettant aux attaquants d'exploiter le compte et d'organiser une visioconférence de mauvaise foi. Fujimoto avait accepté l'invitation à l'appel Zoom de bonne foi, car la communication semblait provenir d'un contact connu.

Pendant l'appel vidéo de 10 minutes, Fujimoto a pu voir ce qui semblait être le visage de sa connaissance, mais ne l'a pas entendue. L'usurpateur a fourni un lien indiquant qu'il résoudrait le problème audio et des instructions détaillées pour ajuster les paramètres. Fujimoto pense que c'est à ce moment-là qu'un logiciel malveillant a été installé sur son ordinateur, ce qui a ensuite conduit au vol de son compte sur les réseaux sociaux.

L'incident de Fujimoto illustre les avancées du deepfake par IA

La technologie était si avancée que Fujimoto est restée en ligne pendant toute la durée de l'appel, pensant parler à sa véritable connaissance. Elle n'a compris le niveau de sophistication de l'attaque et la façon dont les attaquants avaient réussi à la convaincre que lorsqu'elle a perdu l'accès à ses comptes.

Fujimoto a reconnu que continuer à utiliser Zoom malgré des problèmes audio persistants aurait dû être une source d'inquiétude. Cependant, elle a attribué ce choix de plateforme à la formation d'ingénieur de son amie, présumant d'une préférence technique plutôt que d'y voir une potentielle tactique de manipulation.

Le succès de l'attaque s'est étendu au-delà de la compromission initiale de X, les pirates ayant accédé aux comptes Telegram et MetaMask de Fujimoto. Fujimoto a exprimé ses inquiétudes quant à l'utilisation de son image dans de futures attaques deepfake, avertissant ses contacts de se méfier de tout appel vidéo mettant en scène son visage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352