Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4515

Incidents associés

Incident 63430 Rapports
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million

Loading...
Reality Defender se penche sur la fraude vocale deepfake dans le secteur bancaire
biometricupdate.com · 2025

À mesure que la technologie deepfake évolue, la variété et la sophistication des attaques de phishing continuent d'augmenter. Les organisations peuvent se demander comment se protéger contre les attaques deepfake qui peuvent entraîner des pertes financières importantes et nuire à leur réputation.

Reality Defender s'engage à lutter contre le problème du deepfake et propose deux ressources gratuites qui montrent comment.

Une étude de cas téléchargeable de la société de détection de deepfake de New York explique comment l'une des plus grandes institutions financières au monde utilise les outils de Reality Defender pour atténuer les menaces de deepfake dans les centres de contact et protéger ses clients fortunés contre la fraude par l'IA.

Et un webinaire à la demande examine des exemples réels partagés de fraude par deepfake dans les centres d'appels et examine pourquoi les mesures de sécurité traditionnelles ne suffisent plus à lutter contre le phishing par deepfake vocal (vishing).

« Des chiffres récents indiquent une augmentation de 60 % des attaques de phishing pilotées par l'IA, reflétant l'adoption rapide de l'IA générative par les cybercriminels », écrit Gabe Regan, vice-président de l'engagement humain de Reality Defender, dans un récent blog sur la détection des deepfakes. « Traditionnellement, les escroqueries par hameçonnage s’appuyaient sur des e-mails ou des SMS conçus pour tromper les victimes et les amener à révéler des informations sensibles. À l’ère des deepfakes, les attaquants utilisent des manipulations vocales générées par l’IA pour porter les tactiques de phishing à un niveau supérieur. »

Les voix familières permettent aux deepfakes de s’attaquer à la confiance innée des employés

À ce stade, presque tout le monde dans le secteur technologique connaît l’histoire de l’employé d’Arup à Hong Kong qui a transféré 25 millions de dollars lors d’un appel vidéo à la demande d’un cadre qui s’est avéré être un deepfake.

Des appels comme celui-ci sont monnaie courante dans le secteur financier. À bien des égards, le téléphone reste un outil essentiel pour mener des affaires dans le secteur. Cela le met en danger, explique Regan.

« Le secteur des services financiers est une cible de choix pour le vishing et les escroqueries deepfake en raison de sa forte dépendance à la communication verbale pour les transactions critiques. »

Il note une augmentation alarmante de 393 % des attaques de phishing au cours de l’année écoulée dans les secteurs de la finance et des assurances. « Les deepfakes sont le deuxième incident de cybersécurité le plus fréquent rencontré par les entreprises au cours des 12 derniers mois, et les experts prédisent que les industries américaines subiront 40 milliards de dollars de pertes dues aux fraudes deepfake d’ici 2027. »

Si la prolifération des messageries instantanées et des appels frauduleux a rendu les gens méfiants à l’égard du téléphone, dans la plupart des situations professionnelles, les gens ont une confiance innée dans les voix familières. Les compliments peuvent également être utilisés comme arme de phishing : un récent rapport Global Threat Intelligence de Blackberry note montre comment « la flatterie ou l’urgence dans les demandes de réseautage professionnel inattendues » peuvent être utilisées comme leurre de phishing.

Quatre moyens de renforcer les défenses contre la fraude deepfake

Regan énumère quatre mesures proactives que les organisations peuvent prendre pour se protéger des attaques deepfake à tous les niveaux.

Les technologies de détection avancées sont essentielles. L'analyse médico-légale et la surveillance en temps réel peuvent identifier des indices subtils et des anomalies vocales dans la parole que les systèmes traditionnels de vérification KYC ne sont pas équipés pour détecter.

Les protocoles d'authentification biométrique améliorés et l'authentification multifacteur (MFA) pour les transactions de grande valeur ajoutent des niveaux de sécurité supplémentaires.

Les employés doivent être informés de la menace, ce qui rend la formation et la sensibilisation cruciales. Et ils doivent être capables de réagir, ce qui nécessite une planification de la réponse aux incidents qui établit des protocoles clairs en cas d'attaques utilisant des deepfakes.

Regan affirme que « en combinant des outils de détection d'IA avancés, des protocoles d'authentification robustes et une formation complète des employés, les organisations peuvent renforcer leur défense contre ces attaques sophistiquées. »

Les portefeuilles d'identité numérique offrent un autre aspect de la prévention de la fraude deepfake

Les portefeuilles d'identité numérique constituent un autre outil permettant de lutter contre les deepfakes. Selon un récent rapport du Forum économique mondial, « les portefeuilles d'identité numérique répondent à de multiples vulnérabilités à la fraude, notamment celles associées à l'IA. »

« Ils peuvent intégrer des technologies avancées telles que la vérification faciale 1:1, la vérification des doublons et la détection de l'activité, ce qui les rend beaucoup plus résistants aux tentatives d'usurpation d'identité et aux attaques à grande échelle basées sur les deepfakes », indique le WEC.

L’étude indique que sept États ont attribué à ID.me, le plus grand portefeuille d’identité numérique des États-Unis, le mérite d’avoir contribué à prévenir plus de 270 milliards de dollars de fraudes pendant la pandémie.

« Les portefeuilles d’identité numérique qui exploitent de bonnes données biométriques pour lutter contre les deepfakes et les escroqueries offrent aux organisations un moyen sûr et évolutif de vérifier que les personnes qui cherchent à accéder à leurs avantages et services en ligne sont bien celles qu’elles prétendent être. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd