Problème 2296

L'IA et les deepfakes présentent de nouveaux risques pour les relations sur Internet
nationaltribune.com.au · 2022

Les personnes à la recherche de relations authentiques via Internet devront devenir beaucoup plus avisées sur les nouvelles technologies qui les exposent à la fraude amoureuse à un "niveau de risque entièrement nouveau", prévient Cassandra Cross, chercheuse en fraude sur Internet à QUT.

Les escroqueries amoureuses, qui ont rapporté aux criminels 131 millions de dollars des Australiens rien qu'en 2020, sont susceptibles de devenir plus difficiles à détecter car les auteurs se tournent vers l'utilisation de l'IA (intelligence artificielle) et de la technologie deepfake pour tromper leurs victimes.

Avec la technologie deepfake, les délinquants peuvent non seulement utiliser des images facilement disponibles d'une autre personne et créer une fausse image de profil, mais ils peuvent également créer une image entièrement synthétique et un profil correspondant sans avoir à en retirer une des médias sociaux ou d'Internet d'une autre personne.

Le professeur Cross, de la QUT School of Justice, a déclaré que le public avait pris connaissance des escroqueries amoureuses et avait été conseillé d'utiliser des méthodes de détection telles qu'une recherche d'image inversée sur les images qui leur étaient envoyées afin de déterminer si l'expéditeur était celui qu'ils prétendaient être. .

"Cela signifie que les campagnes de prévention de la fraude devront être révisées pour sensibiliser les gens à cette méthode de tromperie sophistiquée et difficile à détecter", a déclaré le professeur Cross.

"L'IA et les deepfakes rendent les recherches d'images inversées pratiquement obsolètes. Il est essentiel d'améliorer la réponse technologique à l'IA et au potentiel de fraude des deepfakes car les moyens de détection disponibles sont limités.

Le professeur Cross a déclaré que de nombreux reportages dans les médias avaient déjà documenté l'utilisation de l'IA et des deepfakes pour tromper les victimes de fraude amoureuse.

"Par exemple, une femme américaine a envoyé plusieurs sommes d'argent à un homme qu'elle croyait être un responsable de la marine américaine. Dans ce cas, l'agresseur a manipulé des images et des enregistrements accessibles au public d'un officier de la marine américaine pour créer de fausses vidéos de la personne authentique sous un identité différente », a-t-elle dit.

"En plus de permettre aux délinquants de soulever des images de personnes vivantes et de créer des profils réalistes, les logiciels de deepfake peuvent créer une image et un profil entièrement crédibles mais fictifs.

"La capacité de la technologie à générer des images uniques à utiliser dans les profils de médias sociaux a le potentiel de changer la façon dont la fraude amoureuse et d'autres pratiques trompeuses en ligne (telles que la pêche au chat) sont perpétrées."

Le professeur Cross a déclaré que les deepfakes avaient évolué pour englober les enregistrements vocaux et constituaient un outil puissant lorsqu'ils étaient utilisés avec d'autres comportements frauduleux.

"Par exemple, dans le cadre de la fraude par compromission des e-mails professionnels (BEC), les contrevenants peuvent utiliser de faux enregistrements audio pour se faire passer pour des PDG et d'autres personnalités faisant autorité et cibler les employés de niveau inférieur avec des demandes urgentes de transfert de fonds en leur nom.

"De toute évidence, les messages de prévention doivent cibler les personnes qui utilisent les plateformes de rencontres et les plateformes de médias sociaux pour nouer des relations et, à tout le moins, alerter le public sur les risques que l'IA et les deepfakes posent dans ces domaines de leur vie.