Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5132

Incidents associés

Incident 10452 Rapports
Mother in Louisville, Kentucky Describes Phone Scam Involving Purported AI-Generated Voice of Her Daughter

Loading...
Une mère de famille de Louisville met en garde contre une nouvelle tactique de peur : des escrocs clonent les voix des enfants
louisvilledailypost.com · 2025

LOUISVILLE, Kentucky — Une mère de famille partage une expérience effrayante dans l'espoir d'alerter les autres sur une nouvelle arnaque ciblant les familles. Kim Alvey, une habitante de Louisville, a reçu mardi après-midi ce qu'elle décrit comme l'appel le plus effrayant de sa vie. L'appel, qui semblait initialement être une urgence concernant sa fille, s'est avéré être une arnaque sophistiquée utilisant la technologie pour se faire passer pour sa fille.

Alvey conduisait lorsqu'elle a reçu un appel provenant de ce qui semblait être la voix de sa fille de 10 ans. La voix à l'autre bout du fil semblait bouleversée, affirmant avoir été impliquée dans un accident de voiture et demandant de l'aide d'urgence.

La voix est ensuite devenue affolée, suppliant : « Maman, aidez-moi ! Je viens d'avoir un accident. Quelqu'un m'a percutée, et vous devez venir au plus vite. » L'espace d'un instant, Alvey a cru que l'appel était authentique. « J'ai su que c'était sa voix. Je l'ai reconnue immédiatement », a expliqué Alvey, soulignant que sa voix semblait désespérée et bouleversée, presque comme si sa fille pleurait.

Cependant, les choses ont rapidement pris une tournure effrayante. La voix a alors changé, révélant un homme se présentant comme « Hector ». Il a menacé de kidnapper la fille d'Alvey, la prévenant que si elle appelait la police, elle ne la reverrait plus jamais. L'appelant a exigé qu'Alvey se rende à un endroit précis pour récupérer sa fille.

Affolée et incapable de réfléchir clairement, Alvey a tenté d'ajouter son mari à l'appel, mais l'escroc a raccroché avant qu'elle ne puisse le faire. Elle a immédiatement appelé l'école de sa fille, craignant le pire.

À son grand soulagement, la fille d'Alvey était saine et sauve à l'école. C'est alors qu'Alvey a compris que tout l'incident n'était qu'une arnaque, mais le choc émotionnel était déjà immense.

« C'était comme un cauchemar. Mon cœur battait la chamade et je ne pensais qu'à la retrouver », a confié Alvey. « Quand j'ai su qu'elle allait bien, je l'ai serrée dans mes bras pendant dix minutes en pleurant. Je lui ai dit que je ne la quitterais pas des yeux. »

Le FBI a lancé une alerte publique concernant l'utilisation croissante de l'intelligence artificielle dans ce type d'escroqueries. Les criminels peuvent désormais utiliser la technologie de clonage vocal pour se faire passer pour un proche de la victime, créant ainsi un sentiment d'urgence et de panique. Dans certains cas, les escrocs ont utilisé de courts extraits audio de la voix d'un proche pour simuler de fausses situations d'urgence.

Dans un message d'intérêt public de décembre 2023, le FBI a expliqué comment les escrocs utilisent des fichiers audio, des textes, des images et des vidéos générés par l'IA pour se faire passer pour des personnes en situation de détresse. Ces types d'escroqueries sont conçus pour exploiter la réaction émotionnelle de la victime, ce qui l'empêche de réfléchir logiquement et de prendre des précautions.

Alvey, encore bouleversée par cette expérience, s'exprime pour sensibiliser le public à cette menace croissante. « Je ne sais pas ce que l'escroc voulait – si c'était de l'argent ou autre chose – mais il connaissait mon nom, celui de ma fille, mon numéro de téléphone et il avait sa voix. Tout était tellement crédible, et c'est ce qui rendait la situation si terrifiante », a-t-elle déclaré.

Les experts recommandent aux familles de créer un « mot de sécurité » à utiliser en cas d'urgence. Ce mot permettrait de vérifier que l'appelant est bien celui qu'il prétend être. De plus, les parents doivent se méfier des appels non sollicités, en particulier ceux concernant des proches en détresse. Il est également important de vérifier la localisation et l'identité de toute personne demandant de l'aide avant d'agir.

L'avertissement d'Alvey s'inscrit dans le cadre d'une campagne plus large de sensibilisation aux dangers de ces escroqueries au clonage vocal, qui sont de plus en plus fréquentes. Les autorités encouragent toute personne recevant un appel similaire à le signaler au FBI ou aux forces de l'ordre locales.

Bien que le numéro associé à l'appel reçu par Alvey indiquait l'indicatif régional 502, les tentatives de WDRB pour le joindre sont restées sans réponse. L'escroc aurait rappelé plusieurs fois après l'échange initial, ce qui a aggravé la situation.

« Je veux juste m'assurer que d'autres parents ne vivent pas la même chose que moi », a déclaré Alvey. « C'est un véritable cauchemar, mais si je peux contribuer à éviter que quelqu'un d'autre ne soit victime, alors ça en vaut la peine. »

La technologie évolue, tout comme les tactiques utilisées par les criminels, ce qui rend plus important que jamais pour les familles de rester vigilantes et informées des risques potentiels.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd