Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2847

Incidents associés

Incident 4927 Rapports
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Les escrocs utilisent l'IA de clonage de voix pour tromper grand-mère en lui faisant croire que son petit-enfant est en prison
futurism.com · 2023

Renflouer

Les escrocs impitoyables sont toujours à la recherche du prochain gros escroquerie, et ils l'ont peut-être trouvé : utiliser l'IA pour imiter vos proches par téléphone.

Lorsqu'une Ruth Card, âgée de 73 ans, a entendu ce qu'elle pensait être la voix de son petit-fils Brandon à l'autre bout du fil disant qu'il avait besoin d'argent pour la caution, elle et son mari se sont précipités à la banque.

"C'était définitivement ce sentiment de... peur", a déclaré Card au Washington Post_. "Que nous devons l'aider maintenant."

Le couple a retiré le maximum de 3 000 dollars canadiens dans une banque et est allé chercher plus dans une autre. Heureusement, un directeur de banque vigilant les a signalés et les a avertis qu'un autre client avait reçu un appel téléphonique similaire qui ressemblait à celui d'un être cher - mais il s'est avéré que la voix avait été truquée.

"Nous avons été aspirés", a déclaré Card. "Nous étions convaincus que nous parlions à Brandon."

Problème juridique

Tous n'ont pas eu autant de chance. Benjamin Perkin, 39 ans, a raconté à WaPo comment ses parents âgés ont été escroqués de milliers de dollars avec l'aide d'un imitateur d'IA.

Les parents de Perkin avaient reçu un appel téléphonique d'un avocat, qui affirmait que leur fils avait tué un diplomate américain dans un accident de voiture et avait besoin d'argent pour les frais juridiques. L'avocat apparent a ensuite laissé Perkin parler au téléphone – et la voix lui ressemblait.

Cela les a convaincus. Lorsque l'avocat a rappelé plus tard pour demander 21 000 $ CAD, ses parents sont allés à la banque et ont envoyé l'argent via BitCoin.

"L'argent est parti", a déclaré Perkin au journal. "Il n'y a pas d'assurance. Il n'y a pas moyen de le récupérer. C'est parti."

Cueillettes faciles

Les escroqueries par clonage de voix sont une menace [depuis plusieurs années maintenant](https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used- vol majeur/). Mais l'omniprésence croissante d'une IA puissante et facile à utiliser signifie que le potentiel d'abus de la technologie dépasse facilement la capacité d'un public involontaire à suivre les ruses des mauvais acteurs - sans se rendre compte qu'ils pourraient déjà les cibler.

"Il y a deux ans, voire un an, il fallait beaucoup d'audio pour cloner la voix d'une personne", a déclaré Hany Farid, professeur de médecine légale à l'UC Berkeley, à WaPo. "Maintenant... si vous avez une page Facebook... ou si vous avez enregistré un TikTok et que votre voix y est pendant 30 secondes, les gens peuvent cloner votre voix."

Prenez ElevenLabs, dont le service de synthèse vocale IA coûte aussi peu que 5 $ par mois, et peut produire des résultats si convaincants qu'un journaliste l'a utilisé [pour pénétrer dans son propre compte bancaire] (https://futurism.com/the-byte/journalist -clones-voice-break-into-bank). Il a même engendré tout un genre de mèmes se faisant passer pour le président Joe Biden. Le clonage de voix d'ElevenLabs n'existe que depuis 2022. Imaginez les dégâts qu'il - et les concurrents qui cherchent à tirer parti de son succès - pourraient faire dans quelques années de plus.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd