Incidents associés
Dive Brief :
- Le groupe d'ingénierie britannique Arup a perdu environ 25 millions de dollars après que des escrocs ont utilisé Selon un rapport du Financial Times, des « deepfakes » manipulés par l'IA ont permis à un employé de se faire passer pour le directeur financier d'Arup et de demander des virements vers des comptes bancaires à Hong Kong.
- Selon la police de Hong Kong, un employé a reçu un message prétendant provenir du directeur financier d'Arup, basé au Royaume-Uni, concernant une « transaction confidentielle », a indiqué le Financial Times. Après une vidéoconférence avec le faux directeur financier et d'autres employés générés par l'IA, l'employé a ensuite effectué un certain nombre de transactions sur cinq comptes bancaires différents à Hong Kong, avant de découvrir la fraude.
- Bien que les directeurs financiers ne gardent peut-être pas ces incidents à l'esprit pour le moment, cela changera à mesure qu'ils deviendront plus fréquents. En tant que gardiens des clés financières d'une entreprise, et donc en tant que cibles potentielles d'usurpation d'identité par des escrocs entreprenants, il est essentiel de veiller à la sensibilisation, a déclaré à CFO Dive Matthew Miller, directeur des services de cybersécurité chez KPMG US, l'un des quatre grands cabinets d'avocats. Le personnel doit être conscient des menaces telles que l'usurpation d'identité potentielle de dirigeants et de la manière dont une telle fraude pourrait avoir un impact sur les processus commerciaux critiques, a-t-il déclaré.
Dive Insight :
L'incident d'Arup survient alors que les inquiétudes concernant les soi-disant deepfakes (images, audio ou vidéo faussement créés ou autrement manipulés avec l'IA) augmentent parmi les chefs d'entreprise et les régulateurs. La nouvelle de l'escroquerie a été rapportée pour la première fois en février, lorsque la police de Hong Kong a identifié qu'une grande entreprise avait été la cible d'une tromperie deepfake sans mentionner le nom d'Arup. Des personnes au courant de l'affaire ont informé le Financial Times ce mois-ci qu'Arup avait été la cible, selon un rapport publié jeudi.
Arup a informé la police de Hong Kong en janvier qu'un incident de fraude s'était produit et a confirmé au Financial Times que de fausses voix et images avaient été utilisées, mais a refusé de donner plus de détails sur l'escroquerie car l'incident fait toujours l'objet d'une enquête. Arup n'a pas immédiatement répondu aux demandes de commentaires du directeur financier de Dive.
Au total, les transactions envoyées par le membre du personnel --- qui a découvert la fraude après avoir contacté le siège de l'entreprise --- aux auteurs de l'escroquerie ont totalisé 200 millions de dollars de Hong Kong, soit environ 25 millions de dollars américains.
Les deepfakes assistés par l'IA pourraient potentiellement être utilisés pour un certain nombre de cas d'utilisation malveillants, comme permettre aux fraudeurs de contourner les exigences d'authentification pour accéder aux comptes de clients légitimes ou se faire passer pour des personnes d'une entreprise ayant le pouvoir d'autoriser des transferts d'argent, a déclaré Miller.
Bien que ces types de fraude ne soient pas nouveaux, l'émergence de l'IA générative et d'autres outils qui les alimentent permet aux fraudeurs de faire évoluer massivement ces escroqueries ; en fait, « cela change l'économie de la fraude », a-t-il déclaré. « Et une fois que les fraudeurs commencent à gagner de l'argent, ils alimentent leurs composants de fraude avec ce financement pour pouvoir gagner plus d'argent, donc cela me préoccupe, de manière assez importante. »
Il est important que les directeurs financiers prennent conscience du problème et commencent à examiner de plus près les contrôles de fraude qu'ils ont mis en place. Les chefs financiers devraient revoir « certains de leurs processus commerciaux où ils pourraient être exposés à des attaques de type deepfake sur les réseaux sociaux » et s’assurer qu’ils « disposent des contrôles et de la surveillance appropriés pour, espérons-le, prévenir ces risques », a déclaré Miller.
L’incident d’Arup est loin d’être le premier événement où des deepfakes ont été utilisés pour se faire passer pour une personne ayant un accès ou une influence critique ; la semaine dernière, la Commission des valeurs mobilières et des contrats à terme de Hong Kong a averti que des images deepfake de la tête de Tesla étaient utilisées par une société de cryptomonnaie appelée Quantum AI, par exemple.
La SFC « soupçonne que Quantum AI utilise des vidéos et des photos deepfake générées par l’IA de M. Elon Musk sur son site Web et via les réseaux sociaux pour tromper le public en lui faisant croire que M. Musk est le développeur de la technologie sous-jacente de Quantum AI », a-t-elle déclaré dans un récent communiqué de presse.
Il existe également de nombreuses craintes concernant les impacts socio-économiques potentiels de ce type de technologie, a déclaré Miller. Les législateurs de nombreux pays ont déjà appelé à des restrictions sur l'utilisation de l'IA, car les inquiétudes grandissent quant à la manière dont elle pourrait être utilisée à des fins malveillantes pendant les élections.
Lors de son discours sur l'état de l'Union en mars, le président Joseph Biden a souligné la menace que représentent les deepfakes manipulés par l'IA, encourageant le Congrès à s'attaquer au « péril » potentiel représenté par cette technologie émergente, a rapporté précédemment CFO Dive. Plus tard dans la semaine, les législateurs de l'Union européenne ont adopté la « loi européenne sur l'IA » (EU AI Act), une législation qui a établi des exigences pour l'utilisation de l'IA et détaillé des sanctions potentiellement sévères en cas de non-respect.