Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2848

Incidents associés

Incident 4927 Rapports
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Perdre des milliers de dollars parce que l'IA simule la voix d'un être cher
vnexpress.net · 2023

Les parents de Benjamin Perkin (Canada) ont reçu un appel de leur fils, qui était en fait une fausse IA, disant qu'il était détenu et avait besoin de 15 000 $ de toute urgence.

Le cauchemar de la famille de Perkin, 39 ans, a commencé lorsqu'un homme prétendant être avocat a appelé ses parents pour dire qu'il avait causé un accident de voiture qui a tué un diplomate américain. La personne a déclaré que Perkin était en prison et avait besoin d'argent pour les frais de justice.

Pour augmenter la fiabilité, cette personne passe la machine à Perkin, qui est en fait connecté au dispositif d'IA d'usurpation de voix. Dans ce document, "Perkin" a déclaré qu'il avait vraiment besoin d'argent et qu'il ne pouvait faire confiance qu'à ses parents. "La voix était suffisamment proche pour que mes parents aient cru que c'était moi", a déclaré Perkin au Washington Post.

Quelques heures plus tard, "l'avocat" a exhorté ses parents à transférer l'argent, ils sont donc allés à la banque pour retirer et envoyer 15 449 $ via un système de conversion en Bitcoin. Ses parents ont dit qu'ils avaient le sentiment que l'appel était "quelque chose d'inhabituel", mais l'ont quand même suivi parce qu'ils pensaient avoir parlé à leur fils. Cette nuit-là, quand Perkin a appelé, tout a été révélé.

Perkin soupçonne que les vidéos qu'il publie sur YouTube sont la source audio de l'escroc de formation à l'IA. "De l'argent perdu. Pas d'assurance. Il est impossible de le récupérer", a-t-il déclaré.

De même, un matin, Mme Ruth Card, 73 ans à Regina (Canada), a reçu un appel d'un inconnu. Cette personne a déclaré que son neveu, M. Brandon, était détenu, n'avait pas de smartphone à contacter et avait besoin d'argent pour être libéré.

"Il m'est venu à l'esprit à ce moment-là que je devais l'aider immédiatement", a-t-elle déclaré au Washington Post.

Elle et son mari sont allés à la banque et ont retiré 2 207 $ - le maximum qu'elle pouvait retirer chaque jour. Les deux ont l'intention d'aller à la deuxième banque pour obtenir le même montant. Heureusement pour eux, le directeur de la banque les a appelés tous les deux dans le bureau et leur a dit : un autre client a également reçu le même appel, a également simulé la voix d'un parent avec une "étrange précision". Les deux ont appelé leur neveu et il est vrai qu'il n'a pas été arrêté.

"Nous avons été pris dans l'histoire sans l'examiner. À ce moment-là, j'étais sûre de parler à Brandon sans méfiance", a déclaré Mme Card.

Les escroqueries technologiques ont explosé ces dernières années, mais l'histoire de Mme Card ou de Perkin montre une nouvelle tendance inquiétante : les escrocs profitent de l'IA imitant la voix dans le but de frauder de l'argent. Cette technologie devient moins chère et plus facile d'accès, faisant de plus en plus de victimes, ciblant principalement les personnes âgées.

Selon les données de la Federal Trade Commission (FTC) des États-Unis, en 2022, l'usurpation d'identité est la deuxième forme de fraude la plus courante aux États-Unis avec plus de 36 000 signalements. Les fraudeurs se font souvent passer pour des amis ou des membres de leur famille pour tromper leurs victimes. La fraude téléphonique représente à elle seule plus de 5 100 cas, causant plus de 11 millions USD de dégâts.

L'avancement de l'IA au fil du temps s'est développé dans de nombreux domaines, mais c'est aussi un outil que les méchants peuvent exploiter. Avec juste un échantillon des sons de quelques phrases collectées, les escrocs peuvent utiliser l'intelligence artificielle pour se transformer en une copie de la voix d'une personne. L'outil "dit" alors tout ce qu'il demande et devient le véhicule de la fraude.

Les experts estiment que les outils d'IA pour simuler la voix sont omniprésents, mais les organismes de réglementation ont encore du mal à contrôler. Pendant ce temps, il est difficile pour la plupart des victimes d'identifier le coupable car les escrocs opèrent dans le monde entier. Les entreprises qui créent l'IA ne sont pas encore responsables de leurs abus.

"C'est effrayant. Tout crée une tempête, envoyant les victimes dans le chaos", a déclaré le professeur Hany Farid de l'Université de Californie. "Les escrocs forceront la victime à réagir rapidement, la rendant pas assez calme pour gérer le problème, surtout lorsqu'elle apprend qu'un être cher est en danger."

Selon lui, les logiciels IA sont aujourd'hui suffisamment intelligents pour analyser la voix d'une personne. "Un seul enregistrement de Facebook, TikTok, votre voix sera transcrite en seulement 30 secondes", a déclaré le professeur Farid.

ElevenLabs, la société à l'origine de VoiceLab - l'outil d'IA qui reproduit les voix, avertit que de plus en plus de logiciels d'imitation de la voix sont sur le marché, entraînant des abus.

Pendant ce temps, Will Maxson, maintenant avec la Federal Trade Commission des États-Unis, a déclaré qu'il était "particulièrement difficile de traquer les fraudeurs vocaux" car ils peuvent être sur leur téléphone et n'importe où. Selon lui, si vous recevez un appel d'un inconnu ou d'un proche pour obtenir de l'aide, les utilisateurs doivent vérifier en appelant la personne qui a le problème, ainsi qu'en appelant d'autres membres de la famille pour vérifier l'information.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd