Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2786

Incidents associés

Incident 4927 Rapports
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Un couple au Canada aurait été victime d'une escroquerie de 21 000 $ après avoir reçu un appel d'une voix générée par l'IA prétendant être leur fils
businessinsider.com · 2023

Un couple au Canada aurait été victime d'une escroquerie de 21 000 $ après avoir reçu un appel d'une personne prétendant être un avocat qui a déclaré que son fils était en prison pour avoir tué un diplomate dans un accident de voiture.

Benjamin Perkin a déclaré au Washington Post l'appelant a mis une voix générée par l'IA qui lui ressemblait au téléphone avec ses parents pour demander de l'argent. L'avocat présumé a rappelé ses parents après l'appel initial et leur a dit que Perkin avait besoin de 21 000 $ pour les frais juridiques avant d'aller au tribunal.

Perkin a déclaré au Post que la voix était "suffisamment proche pour que mes parents croient vraiment qu'ils m'ont parlé".

Ses parents ont collecté l'argent et envoyé l'argent de l'escroc via Bitcoin, a déclaré Perkin, mais ils ont admis plus tard qu'ils trouvaient l'appel téléphonique étrange. Ils ont réalisé qu'ils avaient été arnaqués après que Perkin ait appelé pour s'enregistrer plus tard dans la soirée.

Perkin n'a pas immédiatement répondu à une demande d'Insider pour discuter de ce qui s'était passé.

Il a déclaré au Post que sa famille avait déposé un rapport de police auprès des autorités canadiennes, mais que "l'argent est parti. Il n'y a pas d'assurance. Il n'y a pas moyen de le récupérer."

Le Post a rapporté que bien que Perkin ne sache pas comment les escrocs ont trouvé sa voix, il a publié des vidéos sur la motoneige sur YouTube.

La montée en puissance d'outils d'IA plus puissants coïncide avec une augmentation des escroqueries impliquant des personnes se faisant passer pour d'autres personnes. L'escroquerie la plus fréquemment signalée l'année dernière était les arnaques d'imposteurs, la [Federal Trade Commission found](https://www.ftc.gov/news-events/news/press-releases/2023/02/new-ftc-data-show -consommateurs-ont-déclaré-perdre-presque-88-milliards-d'escroqueries-2022). La FTC a vu des rapports de fraude de 2,4 millions de personnes en 2022, ce qui était inférieur à celui de 2021. Cependant, le montant d'argent perdu était plus élevé, avec 8,8 milliards de dollars déclarés perdus.

Les escroqueries impliquant la technologie de l'IA sont antérieures à l'émergence de ChatGPT et d'autres robots d'IA deviennent viraux en ce moment . En 2019, le directeur général d'une société énergétique britannique aurait [câblé plus de 240 000 $](https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software- aurait-utilisé-un-vol-important/) sur un compte en Hongrie après avoir pensé que son patron lui avait demandé de le faire lors d'un appel téléphonique.

En janvier, ElevenLabs, un laboratoire de recherche explorant le clonage de la voix et les outils de synthèse vocale, a partagé un fil Twitter en s'adressant aux personnes qui "utilisent notre technologie pour fins malveillantes."

La startup a tweeté qu'elle publiait un outil permettant aux gens de vérifier si un échantillon audio avait été créé à l'aide de la technologie de l'entreprise, et que son VoiceLab ne serait [accessible qu'avec paiement](https://twitter.com/elevenlabsio/status/1620443209397858305 ?s=20).

Un jour avant d'écrire le fil, ElevenLabs a tweeté qu'il était au courant "d'un nombre croissant de cas d'abus de clonage de voix", après avoir publié sa version bêta plateforme.

Carte mère trouvée que les membres sur le site anonyme, 4chan, utilisaient la technologie d'ElevenLabs pour générer des voix qui ressemblent à des célébrités pour dire des choses racistes et inappropriées.

La FTC a créé un nouveau Office of Technology pour enquêter sur les utilisations potentielles de AI que les entreprises promettent et pour voir si les entreprises atténuent les risques que leurs produits peuvent entraîner.

"Nous sommes également préoccupés par le risque que les deepfakes et autres médias synthétiques basés sur l'IA, qui deviennent de plus en plus faciles à créer et à diffuser, soient utilisés à des fins frauduleuses", a déclaré la porte-parole de la FTC Juliana Gruenwald [précédemment déclaré à Insider](https://www .businessinsider.com/chatbot-ftc-chatgpt-hype-scam-fraud-ai-artificial-intelligence-2023-3).

Gruenwald a également déclaré à Insider que la FTC "a déjà constaté une augmentation stupéfiante de la fraude sur les réseaux sociaux".

"Les outils d'IA qui génèrent des vidéos, des photos, de l'audio et du texte d'apparence authentique pourraient accélérer cette tendance, permettant aux fraudeurs une plus grande portée et une plus grande vitesse", a-t-elle déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd