Incidents associés

Renflouer
Les escrocs impitoyables sont toujours à la recherche du prochain gros escroquerie, et ils l'ont peut-être trouvé : utiliser l'IA pour imiter vos proches par téléphone.
Lorsqu'une Ruth Card, âgée de 73 ans, a entendu ce qu'elle pensait être la voix de son petit-fils Brandon à l'autre bout du fil disant qu'il avait besoin d'argent pour la caution, elle et son mari se sont précipités à la banque.
"C'était définitivement ce sentiment de... peur", a déclaré Card au Washington Post_. "Que nous devons l'aider maintenant."
Le couple a retiré le maximum de 3 000 dollars canadiens dans une banque et est allé chercher plus dans une autre. Heureusement, un directeur de banque vigilant les a signalés et les a avertis qu'un autre client avait reçu un appel téléphonique similaire qui ressemblait à celui d'un être cher - mais il s'est avéré que la voix avait été truquée.
"Nous avons été aspirés", a déclaré Card. "Nous étions convaincus que nous parlions à Brandon."
Problème juridique
Tous n'ont pas eu autant de chance. Benjamin Perkin, 39 ans, a raconté à WaPo comment ses parents âgés ont été escroqués de milliers de dollars avec l'aide d'un imitateur d'IA.
Les parents de Perkin avaient reçu un appel téléphonique d'un avocat, qui affirmait que leur fils avait tué un diplomate américain dans un accident de voiture et avait besoin d'argent pour les frais juridiques. L'avocat apparent a ensuite laissé Perkin parler au téléphone – et la voix lui ressemblait.
Cela les a convaincus. Lorsque l'avocat a rappelé plus tard pour demander 21 000 $ CAD, ses parents sont allés à la banque et ont envoyé l'argent via BitCoin.
"L'argent est parti", a déclaré Perkin au journal. "Il n'y a pas d'assurance. Il n'y a pas moyen de le récupérer. C'est parti."
Cueillettes faciles
Les escroqueries par clonage de voix sont une menace [depuis plusieurs années maintenant](https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used- vol majeur/). Mais l'omniprésence croissante d'une IA puissante et facile à utiliser signifie que le potentiel d'abus de la technologie dépasse facilement la capacité d'un public involontaire à suivre les ruses des mauvais acteurs - sans se rendre compte qu'ils pourraient déjà les cibler.
"Il y a deux ans, voire un an, il fallait beaucoup d'audio pour cloner la voix d'une personne", a déclaré Hany Farid, professeur de médecine légale à l'UC Berkeley, à WaPo. "Maintenant... si vous avez une page Facebook... ou si vous avez enregistré un TikTok et que votre voix y est pendant 30 secondes, les gens peuvent cloner votre voix."
Prenez ElevenLabs, dont le service de synthèse vocale IA coûte aussi peu que 5 $ par mois, et peut produire des résultats si convaincants qu'un journaliste l'a utilisé [pour pénétrer dans son propre compte bancaire] (https://futurism.com/the-byte/journalist -clones-voice-break-into-bank). Il a même engendré tout un genre de mèmes se faisant passer pour le président Joe Biden. Le clonage de voix d'ElevenLabs n'existe que depuis 2022. Imaginez les dégâts qu'il - et les concurrents qui cherchent à tirer parti de son succès - pourraient faire dans quelques années de plus.