Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2787

Incidents associés

Incident 4927 Rapports
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Les escrocs utilisent les voix de l'IA pour voler des millions en se faisant passer pour des êtres chers
androidauthority.com · 2023
  • Le logiciel générateur de voix IA permet aux escrocs d'imiter la voix de leurs proches.
  • Ces usurpations d'identité ont conduit des personnes à se faire escroquer 11 millions de dollars par téléphone en 2022.
  • Les personnes âgées constituent la majorité des personnes ciblées.

L'IA est un sujet central dans le monde de la technologie depuis un certain temps maintenant, car Microsoft continue d'infuser ses produits avec ChatGPT et Google tente de suivre le rythme en proposant ses propres produits d'IA. Alors que l'IA a le potentiel de faire des choses vraiment impressionnantes - comme générer des images basées sur une seule ligne de texte - nous commençons à voir davantage les inconvénients de la technologie à peine réglementée. Le dernier exemple en date est l'utilisation de générateurs de voix IA pour arnaquer les gens avec leur argent.

Les logiciels de génération de voix basés sur l'intelligence artificielle ont fait la une des journaux ces derniers temps, principalement pour avoir volé la voix d'acteurs vocaux. Au départ, il suffisait de quelques phrases pour que le logiciel reproduise de manière convaincante le son et la tonalité de l'enceinte. La technologie a depuis évolué au point où quelques secondes de dialogue suffisent pour imiter avec précision quelqu'un.

Dans un nouveau rapport du The Washington Post, des milliers de victimes affirment avoir été dupées par des imposteurs faire semblant d'être aimés. Apparemment, les escroqueries par des imposteurs sont devenues le deuxième type de fraude le plus populaire en Amérique avec plus de 36 000 cas soumis en 2022. Sur ces 36 000 cas, plus de 5 000 victimes ont été escroquées par téléphone, totalisant 11 millions de dollars de pertes selon les responsables de la FTC. .

Une histoire qui s'est démarquée concernait un couple de personnes âgées qui avait envoyé plus de 15 000 $ via un terminal bitcoin à un escroc après avoir cru avoir parlé à leur fils. La voix de l'IA avait convaincu le couple que leur fils avait des problèmes juridiques après avoir tué un diplomate américain dans un accident de voiture.

Comme pour les victimes de l'histoire, ces attaques semblent viser principalement les personnes âgées. Cela n'est pas surprenant car les personnes âgées sont parmi les plus vulnérables face aux escroqueries financières. Malheureusement, les tribunaux n'ont pas encore décidé si les entreprises peuvent être tenues responsables des dommages causés par les générateurs de voix IA ou d'autres formes de technologie IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd