Incidents associés
Incident 63430 Rapports
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million
Incident 98315 Rapports
Scammers Reportedly Used AI Voice Clone and YouTube Footage to Impersonate WPP CEO in Unsuccessful Scam Attempt
Incident 11003 Rapports
Reported Audio Deepfake Impersonating CEO Karim Toubba Targets LastPass Employee via WhatsApp
COMMENTAIRE : Ces dernières années, les incidents de deepfakes en entreprise ont explosé, avec 53 % d’entre elles ayant signalé des incidents. Initialement perçus comme de simples divertissements numériques sur des plateformes comme X et Instagram, les deepfakes sont devenus une menace redoutable pour la sécurité, ciblant les entreprises du monde entier.
Aujourd’hui, les deepfakes compromettent les opérations financières des entreprises, ainsi que l’intégrité opérationnelle et la confiance au sein des écosystèmes d’entreprise. Explorons l’essor des deepfakes en entreprise, leur impact sur les environnements de travail et les stratégies modernes de cybersécurité pour lutter contre ces menaces.
L'année dernière, des célébrités et des personnalités politiques de premier plan ont été ciblées par des deepfakes, cherchant à ternir leur réputation. L'annonce de la victime d'une attaque deepfake par Taylor Swift, par exemple, a suscité une inquiétude croissante chez les consommateurs face aux menaces de cette technologie. Cependant, les escrocs s'attaquent désormais également aux dirigeants de haut rang, et les entreprises en subissent les conséquences financières.
Un exemple notable : la fraude de 25,6 millions de dollars impliquant une multinationale, où une vidéoconférence deepfake a dupé un employé pour qu'il effectue des transactions non autorisées. Une tactique similaire a été utilisée en mai 2024, lorsque des fraudeurs ont tenté d'escroquer WPP (https://www.theguardian.com/technology/article/2024/may/10/ceo-wpp-deepfake-scam?utm_source=chatgpt.com), la plus grande agence de publicité au monde. Les escrocs ont tenté de se faire passer pour le PDG Mark Read en utilisant un faux compte WhatsApp, le clonage vocal et des images YouTube pour organiser une réunion virtuelle. L'objectif était de tromper les employés afin qu'ils autorisent des transactions. Dans ce cas précis, ils n'ont pas réussi. Cependant, la menace que représente cette technologie, notamment à mesure qu'elle se perfectionne, met en lumière ce problème croissant.
En plus des deepfakes visuels, les escrocs redoublent d'ingéniosité avec une variante du deepfake en plein essor : le clonage vocal. En avril 2024, LastPass a signalé une tentative de clonage vocal contre l'entreprise. Bien que la tentative ait été déjouée, elle met en évidence la confiance croissante des escrocs dans cette technologie et le fait que toute entreprise, grande ou petite, peut être victime de ces menaces.
Impacts culturels et opérationnels sur les équipes virtuelles
Les organisations opérant dans des environnements de travail principalement à distance sont naturellement plus exposées aux attaques Deepfake. Si un employé à distance reçoit un appel ou une demande de réunion suspecte de la part de son responsable, il ne peut pas vraiment se déplacer pour vérifier si ce dernier tente réellement de se connecter.
Ces types de menaces perturbent la dynamique de la collaboration virtuelle, sapant la confiance dans la communication numérique. Pour les équipes hybrides ou entièrement à distance, cette érosion de la confiance peut paralyser la prise de décision et affaiblir la cohésion de l'équipe. Face à la sophistication croissante de ces attaques, il est crucial de maintenir un espace de travail numérique sécurisé et fiable.
Combattre l'IA par l'IA
Combattre les risques de cybersécurité interne nécessite une approche multicouche, intégrant des stratégies technologiques et pédagogiques.
L'une des stratégies les plus importantes et les plus efficaces que les entreprises devraient envisager est de lutter contre l'IA par l'IA. Il existe des outils de cybersécurité avancés, tels que l'authentification biométrique, la détection du vivant et les systèmes de vérification continue de l'identité, qui identifient les anomalies pouvant passer inaperçues. Ces technologies sont essentielles lors du processus d'intégration des utilisateurs, car elles permettent d'arrêter les fraudeurs dès leur tentative de création d'un faux compte.
Grâce à des technologies telles que la vérification biométrique et la détection du vivant, les entreprises peuvent authentifier les utilisateurs avec la même confiance que lors d'une réunion en face à face, même à distance. Lors du processus d'authentification, les entreprises peuvent déployer des stratégies telles que la vérification par selfie avec détection avancée du vivant pour confirmer la présence physique de l'individu et distinguer les utilisateurs réels des deepfakes.
Face à la sophistication croissante des attaquants, les entreprises doivent également se prémunir contre les attaques par injection de caméra, une méthode qui consiste à insérer des médias préenregistrés ou synthétiques directement dans le flux vidéo afin de contourner les contrôles d'activité. Pour contrer ce phénomène, les systèmes de détection d'activité doivent vérifier non seulement le contenu de la vidéo, mais aussi l'authenticité de la source de capture elle-même.
Les entreprises devraient également intégrer des systèmes offrant des contrôles biométriques, tels que l'estimation de l'âge, afin d'identifier les incohérences avec les données enregistrées. Parmi les mesures de sécurité supplémentaires à envisager, on peut citer :
- Superposition des signaux de risque : L'intégration de signaux de risque passifs pour renforcer la sécurité sans perturber l'expérience utilisateur permet d'évaluer tout niveau de risque en temps réel. Grâce à la vérification des informations personnelles identifiables (IPI), à l'analyse de la réputation des adresses e-mail et des numéros de téléphone, et au contrôle de la fiabilité des appareils, les entreprises peuvent bénéficier d'une visibilité accrue sur les tentatives de fraude.- Authentification moderne pour les activités à haut risque : Les entreprises doivent envisager de mettre en œuvre l'authentification biométrique pour les activités à haut risque, telles que les opérations financières. Si l'authentification multifacteur renforce la sécurité, la biométrie, comme la détection avancée du vivant, offre un niveau de protection supérieur. Les données biométriques de l'utilisateur sont évaluées en temps réel et vérifiées par rapport aux documents officiels préalablement soumis, tels que sa pièce d'identité.
Soyez vigilants
Parallèlement à l'adoption d'outils de cybersécurité modernes, il est essentiel pour les organisations de former leurs collaborateurs à reconnaître et à réagir aux tactiques de deepfake. Formez-les à identifier les communications suspectes, telles que celles présentant un caractère urgent ou contenant des demandes hors contexte.
Les dirigeants d'entreprise doivent également mettre en place des processus de communication et d'approbation cohérents, notamment pour les transactions à enjeux élevés. Mettez régulièrement à jour vos politiques pour faire face aux menaces émergentes et assurez-vous que vos collaborateurs adhèrent aux meilleures pratiques d'atténuation des risques.
Face à l'intensification de la menace des deepfakes, les entreprises doivent prioriser les stratégies de prévention avancées comme élément central de leur dispositif de cybersécurité. En combinant des outils innovants, des efforts collaboratifs et une culture de sécurité proactive, les entreprises peuvent se protéger, ainsi que leurs collaborateurs, contre cette préoccupation croissante.
Daryl Huff, vice-président, biométrie, Jumio
Les chroniques SC Media Perspectives sont rédigées par une communauté d'experts en cybersécurité de confiance de SC Media. Chaque contribution vise à apporter une voix unique sur des sujets importants liés à la cybersécurité. Le contenu s'efforce d'être de la plus haute qualité, objectif et non commercial.