Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2991

Incidents associés

Incident 5373 Rapports
Mother in Arizona Received Fake Ransom Call Featuring AI Voice of Her Daughter

Loading...
"J'ai votre fille": maman met en garde contre une terrifiante escroquerie de clonage de voix par IA qui a simulé un enlèvement
nbc15.com · 2023

SCOTTSDALE, Arizona ([KPHO](https://www.azfamily.com/2023/04/10/ive-got-your-daughter-scottsdale-mom-warns-close-encounter-with-ai-voice-cloning -scam/)/Gray News) – Une mère en Arizona met en garde les autres contre une terrifiante escroquerie téléphonique impliquant une intelligence artificielle capable de cloner la voix d'un être cher.

Jennifer DeStefano a déclaré qu'elle avait reçu un appel d'un numéro de téléphone inconnu et qu'elle l'avait presque laissé tomber sur la messagerie vocale. Cependant, sa fille de 15 ans était hors de la ville pour skier, alors elle a décroché le téléphone, craignant peut-être qu'il y ait eu un accident.

"Je décroche le téléphone et j'entends la voix de ma fille, et ça dit:" Maman! "Et elle sanglote", se souvient DeStefano. "J'ai dit:" Que s'est-il passé? "Et elle a dit:" Maman, j'ai foiré ", et elle sanglote et pleure."

DeStefano a déclaré qu'elle avait alors entendu la voix d'un homme dire: "Reculez la tête, allongez-vous."

La confusion de DeStefano s'est transformée en terreur.

«Cet homme prend le téléphone et il dit:« Écoutez ici. J'ai votre fille. C'est comme ça que ça va descendre. Vous appelez la police, vous appelez n'importe qui, je vais lui faire plein de drogue. Je vais me débrouiller avec elle et je vais la déposer au Mexique », se souvient DeStefano. "Et à ce moment-là, j'ai juste commencé à trembler. En arrière-plan, elle dit: "Aide-moi, maman". Aidez-moi, s'il vous plaît. Aidez-moi,’ et hurlant.

L'homme au téléphone a ensuite demandé de l'argent, demandant d'abord 1 million de dollars, puis abaissant sa demande à 50 000 dollars lorsque DeStefano a déclaré qu'elle n'avait pas les fonds.

DeStefano le faisait parler. Pendant l'appel téléphonique, elle se trouvait au studio de danse de son autre fille, entourée de mères inquiètes qui voulaient aider. L'un a appelé le 911 et un autre a appelé le mari de DeStefano.

En seulement quatre minutes, ils ont confirmé que sa fille était en sécurité.

«Elle était à l'étage dans sa chambre en train de dire:« Quoi? Que se passe-t-il? », A déclaré DeStefano. « Ensuite, je me fâche, évidemment, avec ces gars. Ce n'est pas quelque chose avec lequel vous jouez.

Une fois qu'elle a réalisé que sa fille était en sécurité, DeStefano a raccroché. Mais il n'y avait aucun doute dans l'esprit de DeStefano que c'était la voix de sa fille au téléphone.

"C'était complètement sa voix. C'était son inflexion. C'était la façon dont elle aurait pleuré », a-t-elle déclaré. "Je n'ai jamais douté une seule seconde que c'était elle. C'est la partie bizarre qui m'a vraiment amené à mon cœur.

Mais il s'avère que le jeune de 15 ans n'a jamais rien dit de tout cela. La voix au téléphone n'était qu'un clone créé par l'intelligence artificielle.

Subbarao Kambhampati, professeur d'informatique à l'Arizona State University spécialisé dans l'IA, a déclaré que la technologie de clonage de la voix s'améliorait rapidement.

"Vous ne pouvez plus faire confiance à vos oreilles", a déclaré Kambhampati.

Auparavant, le clonage d'une voix prélevait un grand nombre d'échantillons de la personne qui était clonée. De nos jours, Kambhampati a déclaré qu'une voix peut être clonée avec seulement trois secondes de votre voix.

"Et avec les trois secondes, cela peut se rapprocher de la façon dont vous sonnez exactement", a déclaré Kambhampati. "La plupart des clonages de voix capturent en fait l'inflexion ainsi que l'émotion."

La technologie d'apprentissage en profondeur est actuellement très peu surveillée et, selon Kambhampati, elle devient de plus en plus facile d'accès et d'utilisation.

"C'est un nouveau jouet, et je pense qu'il pourrait y avoir de bonnes utilisations, mais il peut certainement y avoir aussi des utilisations assez inquiétantes", a-t-il déclaré.

Dan Mayo, l'agent spécial adjoint en charge du bureau du FBI à Phoenix, a déclaré que les escrocs qui utilisent la technologie de clonage de la voix trouvent souvent leur proie sur les réseaux sociaux.

Pour éviter d'être victime d'escroqueries comme celle-ci, Mayo exhorte tout le monde à garder son profil en mode privé et non visible au public.

« Vous devez garder ces choses sous clé. Le problème est que si vous l'avez rendu public, vous vous laissez arnaquer par des gens comme ça, parce qu'ils vont chercher des profils publics qui ont autant d'informations que possible sur vous, et quand ils obtiennent une prise de cela, ils vont creuser en vous », a déclaré Mayo.

Selon la Federal Trade Commission, les escrocs demandent souvent aux victimes de transférer de l'argent, d'envoyer de la crypto-monnaie ou de payer une rançon avec des cartes-cadeaux. Une fois l'argent transféré, il est presque impossible de le récupérer.

Mayo a déclaré que les drapeaux rouges à rechercher incluent le numéro de téléphone provenant d'un indicatif régional que vous ne connaissez pas, le numéro de téléphone étant un numéro international et la personne au téléphone ne vous permettant pas de parler à d'autres membres de la famille pour obtenir de l'aide.

« Pensez juste aux films. Ralentir. Ralentissez la personne. Posez un tas de questions », a déclaré Mayo. "S'ils ont quelqu'un qui vous intéresse, vous allez connaître beaucoup de détails à leur sujet que cet escroc ne connaîtra pas. Vous commencez à poser des questions sur qui il s'agit et différents détails sur ses antécédents qui ne sont pas accessibles au public, vous allez découvrir très rapidement qu'il s'agit d'un escroc.

On ne sait pas combien de personnes ont reçu des appels frauduleux similaires concernant une urgence familiale ou un faux enlèvement à l'aide d'un clone de voix d'IA, mais Mayo a déclaré que cela "se produit quotidiennement", mais tout le monde ne signale pas l'appel.

Mayo a déclaré qu'il pensait que les gens étaient tellement soulagés que les membres de leur famille soient en sécurité qu'ils oublient de signaler l'arnaque.

"Cependant, certaines personnes y cèdent et finissent par envoyer de l'argent à ces personnes", a déclaré Mayo. "Croyez-moi, le FBI enquête sur ces personnes et nous les trouvons."

Quant à DeStefano, elle est reconnaissante de ne pas avoir envoyé d'argent aux escrocs, mais cela ne l'a pas empêchée d'être traumatisée.

"Je me suis littéralement assise et je me suis effondrée en pleurant", a-t-elle déclaré. «Ils étaient des larmes pour tous les et si. Tout semblait si réel.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd