Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2785

Loading...
Des milliers de personnes se font arnaquer par des voix d'IA imitant leurs proches en cas d'urgence
arstechnica.com · 2023

Les modèles d'IA conçus pour simuler étroitement la voix d'une personne permettent aux mauvais acteurs d'imiter plus facilement leurs proches et d'arnaquer des personnes vulnérables avec des milliers de dollars, [The Washington Post rapporté](https://www.washingtonpost.com/technology/2023 /03/05/ai-voice-scam/).

Évoluant rapidement dans la sophistication, certains logiciels de génération de voix IA ne nécessitent que quelques phrases [d'audio](https://arstechnica.com/information-technology/2023/01/microsofts-new-ai-can-simulate-anyones-voice -with-3-seconds-of-audio/) pour produire de manière convaincante un discours qui [transmet le son et le ton émotionnel de la voix d'un locuteur](https://arstechnica.com/information-technology/2022/09/with-koe- recast-you-can-change-your-voice-as-easily-as-your-clothing/), tandis que d'autres options nécessitent [aussi peu que trois secondes](https://arstechnica.com/information-technology/2023/ 01/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio/). Pour les personnes ciblées – qui sont souvent des personnes âgées, a rapporté le Post – il peut être de plus en plus difficile de détecter quand une voix est inauthentique, même lorsque les circonstances d'urgence décrites par les escrocs semblent invraisemblables.

Les progrès technologiques facilitent apparemment la chasse aux pires peurs des gens et effrayent les victimes qui ont déclaré au Post qu'elles ressentaient une "horreur viscérale" en entendant ce qui ressemblait à des appels directs d'amis ou de membres de la famille ayant un besoin urgent d'aide. Un couple a envoyé 15 000 $ via un terminal bitcoin à un escroc après avoir cru avoir parlé à leur fils. La voix générée par l'IA leur a dit qu'il avait besoin de frais juridiques après avoir été impliqué dans un accident de voiture qui a tué un diplomate américain.

[Selon la Federal Trade Commission](https://www.ftc.gov/news-events/news/press-releases/2023/02/new-ftc-data-show-consumers-reported-losing-nearly-88 -billion-scams-2022), les escroqueries dites d'imposteurs sont extrêmement courantes aux États-Unis. Il s'agissait du type de fraude le plus fréquemment signalé en 2022 et a généré les deuxièmes pertes les plus élevées pour les personnes ciblées. Sur 36 000 rapports, plus de 5 000 victimes ont été escroquées sur 11 millions de dollars par téléphone.

Étant donné que ces escroqueries par des imposteurs peuvent être lancées de n'importe où dans le monde, il est extrêmement difficile pour les autorités de les réprimer et d'inverser la tendance inquiétante, a rapporté le Post. Non seulement il est difficile de retracer les appels, d'identifier les escrocs et de récupérer des fonds, mais il est également parfois difficile de décider quelles agences ont compétence pour enquêter sur des cas individuels lorsque les escrocs opèrent à partir de différents pays. Même lorsqu'il est évident quelle agence doit enquêter, certaines agences sont actuellement mal équipées pour gérer le nombre croissant d'usurpations d'identité.

Ars n'a pas pu joindre immédiatement la FTC pour un commentaire. Will Maxson, directeur adjoint de la division des pratiques marketing de la FTC, a déclaré au Post que la sensibilisation aux escroqueries reposant sur des simulateurs de voix IA est probablement la meilleure défense des consommateurs actuellement. Il est recommandé de traiter toute demande d'argent avec scepticisme. Avant d'envoyer des fonds, essayez de contacter la personne qui semble demander de l'aide par des méthodes autres qu'un appel vocal.

Protections contre l'usurpation d'identité par l'IA

Les outils de modélisation vocale de l'IA ont été utilisés pour améliorer la génération de synthèse vocale, créer de nouvelles possibilités d'édition vocale et étendre la magie du cinéma en [clonant des voix célèbres comme celle de Dark Vador](https://arstechnica.com/information-technology/ 2022/09/james-earl-jones-signed-darth-vader-voice-rights-to-disney-for-ai-use/). Mais le pouvoir de produire facilement des simulations vocales convaincantes a déjà provoqué des scandales, et personne ne sait qui est à blâmer lorsque la technologie est mal utilisée.

Plus tôt cette année, il y a eu un contrecoup lorsque certains membres de 4chan ont fait de fausses voix de célébrités faisant des déclarations racistes, offensantes ou violentes. À ce stade, il est devenu clair que les entreprises devaient envisager d'ajouter davantage de garanties pour empêcher l'utilisation abusive de la technologie, [Vice a rapporté](https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan -celebrity-voices-emma-watson-joe-rogan-elevenlabs) - ou risquent d'être tenus responsables d'avoir causé des dommages importants, comme ruiner la réputation de personnes célèbres.

Les tribunaux n'ont pas encore décidé quand ou si les entreprises seront tenues responsables des dommages causés par la technologie vocale deepfake - ou toute autre technologie d'intelligence artificielle de plus en plus populaire, comme ChatGPT - où les risques de diffamation et de désinformation semblent augmenter.

Cependant, il peut y avoir une pression croissante sur les tribunaux et les régulateurs pour contrôler l'IA, car de nombreuses entreprises semblent lancer des produits d'IA sans connaître pleinement les risques encourus.

À l'heure actuelle, certaines entreprises ne semblent pas disposées à ralentir les versions de fonctionnalités d'IA populaires, y compris celles controversées qui permettent aux utilisateurs d'imiter les voix de célébrités. Plus récemment, Microsoft a déployé une nouvelle fonctionnalité lors de son aperçu de Bing AI qui peut être utilisée pour émuler des célébrités, [Gizmodo rapporté](https://gizmodo.com/bing-ai-celebrity-mode-andrew-tate-google-ai -1850191980). Avec cette fonctionnalité, Microsoft semble tenter d'esquiver tout scandale en limitant ce que les voix des célébrités impostrices peuvent être invitées à dire.

Microsoft n'a pas répondu à la demande de commentaires d'Ars sur l'efficacité actuelle des mesures de protection pour empêcher l'émulateur vocal de célébrités de générer un discours offensant. Gizmodo a souligné que, comme de nombreuses entreprises désireuses de bénéficier de la fascination généralisée pour les outils d'IA, Microsoft compte sur ses millions d'utilisateurs pour tester en version bêta son "IA toujours dysfonctionnelle", qui peut apparemment encore être utilisée pour générer un discours controversé en le présentant. comme parodie. Le temps nous dira dans quelle mesure les premières solutions sont efficaces pour atténuer les risques.

En 2021, la FTC a publié des directives sur l'IA, informant les entreprises que les produits doivent « faire plus de bien que de mal » et que les entreprises doivent être prêtes à se tenir responsables des risques liés à l'utilisation des produits. Plus récemment, la FTC le mois dernier a dit aux entreprises : les risques et l'impact raisonnablement prévisibles de votre produit d'IA avant de le mettre sur le marché. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd