Incidents associés
Un couple au Canada aurait été victime d'une escroquerie de 21 000 $ après avoir reçu un appel d'une personne prétendant être un avocat qui a déclaré que son fils était en prison pour avoir tué un diplomate dans un accident de voiture.
Benjamin Perkin a déclaré au Washington Post l'appelant a mis une voix générée par l'IA qui lui ressemblait au téléphone avec ses parents pour demander de l'argent. L'avocat présumé a rappelé ses parents après l'appel initial et leur a dit que Perkin avait besoin de 21 000 $ pour les frais juridiques avant d'aller au tribunal.
Perkin a déclaré au Post que la voix était "suffisamment proche pour que mes parents croient vraiment qu'ils m'ont parlé".
Ses parents ont collecté l'argent et envoyé l'argent de l'escroc via Bitcoin, a déclaré Perkin, mais ils ont admis plus tard qu'ils trouvaient l'appel téléphonique étrange. Ils ont réalisé qu'ils avaient été arnaqués après que Perkin ait appelé pour s'enregistrer plus tard dans la soirée.
Perkin n'a pas immédiatement répondu à une demande d'Insider pour discuter de ce qui s'était passé.
Il a déclaré au Post que sa famille avait déposé un rapport de police auprès des autorités canadiennes, mais que "l'argent est parti. Il n'y a pas d'assurance. Il n'y a pas moyen de le récupérer."
Le Post a rapporté que bien que Perkin ne sache pas comment les escrocs ont trouvé sa voix, il a publié des vidéos sur la motoneige sur YouTube.
La montée en puissance d'outils d'IA plus puissants coïncide avec une augmentation des escroqueries impliquant des personnes se faisant passer pour d'autres personnes. L'escroquerie la plus fréquemment signalée l'année dernière était les arnaques d'imposteurs, la [Federal Trade Commission found](https://www.ftc.gov/news-events/news/press-releases/2023/02/new-ftc-data-show -consommateurs-ont-déclaré-perdre-presque-88-milliards-d'escroqueries-2022). La FTC a vu des rapports de fraude de 2,4 millions de personnes en 2022, ce qui était inférieur à celui de 2021. Cependant, le montant d'argent perdu était plus élevé, avec 8,8 milliards de dollars déclarés perdus.
Les escroqueries impliquant la technologie de l'IA sont antérieures à l'émergence de ChatGPT et d'autres robots d'IA deviennent viraux en ce moment . En 2019, le directeur général d'une société énergétique britannique aurait [câblé plus de 240 000 $](https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software- aurait-utilisé-un-vol-important/) sur un compte en Hongrie après avoir pensé que son patron lui avait demandé de le faire lors d'un appel téléphonique.
En janvier, ElevenLabs, un laboratoire de recherche explorant le clonage de la voix et les outils de synthèse vocale, a partagé un fil Twitter en s'adressant aux personnes qui "utilisent notre technologie pour fins malveillantes."
La startup a tweeté qu'elle publiait un outil permettant aux gens de vérifier si un échantillon audio avait été créé à l'aide de la technologie de l'entreprise, et que son VoiceLab ne serait [accessible qu'avec paiement](https://twitter.com/elevenlabsio/status/1620443209397858305 ?s=20).
Un jour avant d'écrire le fil, ElevenLabs a tweeté qu'il était au courant "d'un nombre croissant de cas d'abus de clonage de voix", après avoir publié sa version bêta plateforme.
Carte mère trouvée que les membres sur le site anonyme, 4chan, utilisaient la technologie d'ElevenLabs pour générer des voix qui ressemblent à des célébrités pour dire des choses racistes et inappropriées.
La FTC a créé un nouveau Office of Technology pour enquêter sur les utilisations potentielles de AI que les entreprises promettent et pour voir si les entreprises atténuent les risques que leurs produits peuvent entraîner.
"Nous sommes également préoccupés par le risque que les deepfakes et autres médias synthétiques basés sur l'IA, qui deviennent de plus en plus faciles à créer et à diffuser, soient utilisés à des fins frauduleuses", a déclaré la porte-parole de la FTC Juliana Gruenwald [précédemment déclaré à Insider](https://www .businessinsider.com/chatbot-ftc-chatgpt-hype-scam-fraud-ai-artificial-intelligence-2023-3).
Gruenwald a également déclaré à Insider que la FTC "a déjà constaté une augmentation stupéfiante de la fraude sur les réseaux sociaux".
"Les outils d'IA qui génèrent des vidéos, des photos, de l'audio et du texte d'apparence authentique pourraient accélérer cette tendance, permettant aux fraudeurs une plus grande portée et une plus grande vitesse", a-t-elle déclaré.