Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5169

Incidents associés

Incident 5373 Rapports
Mother in Arizona Received Fake Ransom Call Featuring AI Voice of Her Daughter

Les appels frauduleux utilisant l'IA deviennent plus intelligents. Voici comment les télécoms ripostent.
fastcompany.com · 2025

Les appels frauduleux bouleversent le monde. La Global Anti-Scam Alliance estime que les escrocs ont volé la somme astronomique de 1 030 milliards de dollars à l'échelle mondiale en 2023, y compris les pertes liées à la fraude en ligne et aux appels frauduleux. Les appels automatisés et les escroqueries téléphoniques sont depuis longtemps un problème frustrant, et souvent dangereux, pour les consommateurs. Aujourd'hui, l'intelligence artificielle accroît la menace, rendant les escroqueries plus trompeuses, plus efficaces et plus difficiles à détecter.

Si Eric Priezkalns, analyste et rédacteur chez Commsrisk, estime que l'impact de l'IA sur les appels frauduleux est actuellement exagéré, il note que l'utilisation de l'IA par les escrocs se concentre sur la production de faux contenus, qui semblent réels, ou sur la modification du contenu des messages destinés à attirer des victimes potentielles dans des conversations malveillantes. « Varier le contenu rend beaucoup plus difficile l'identification et le blocage des escroqueries à l'aide des contrôles anti-escroquerie traditionnels », explique-t-il à Fast Company.

Des voix deepfake générées par l'IA imitant celles de proches aux opérations de fraude à grande échelle utilisant l'apprentissage automatique pour échapper à la détection, les acteurs malveillants exploitent l'IA pour amplifier ces appels frauduleux. La grande question est : comment le secteur des télécommunications peut-il lutter de front contre ce problème avant que les fraudeurs ne fassent encore plus de ravages ?

LES ESCROCS AMÉLIORENT LEUR PRATIQUE AVEC L'IA

Jusqu'à récemment, les escroqueries téléphoniques reposaient principalement sur des appels automatisés rudimentaires : des messages préenregistrés avertissant les destinataires d'un problème financier urgent ou d'un prétendu problème avec leur numéro de sécurité sociale. Ces tactiques, bien que persistantes, étaient souvent faciles à reconnaître. Mais les escroqueries actuelles basées sur l'IA sont bien plus convaincantes.

L'une des évolutions les plus alarmantes est l'utilisation de voix générées par l'IA, qui confère aux escroqueries une dimension particulièrement personnelle. Dans une affaire glaçante datant d'avril 2023, une mère en Arizona a reçu un appel désespéré de sa fille, sanglotant et implorant de l'aide. Un escroc, se faisant passer pour un ravisseur, a exigé une rançon. En réalité, la fille était saine et sauve : les criminels avaient utilisé l'IA pour cloner sa voix à partir d'une vidéo diffusée sur les réseaux sociaux. Ces escroqueries, connues sous le nom de « fraude au clonage vocal », ont connu une forte augmentation ces derniers mois. Avec seulement quelques secondes d'audio, des outils d'IA peuvent désormais créer un clone numérique d'un réalisme inquiétant de la voix d'une personne, permettant aux fraudeurs d'usurper l'identité d'amis, de membres de la famille, voire de dirigeants, dans le cadre d'escroqueries d'entreprise.

Les escrocs utilisent également l'IA pour analyser de vastes quantités de données et affiner leurs stratagèmes avec une précision effrayante. Des algorithmes d'apprentissage automatique peuvent passer au crible les informations publiques (publications sur les réseaux sociaux, forums en ligne et violations de données) pour créer des appels frauduleux ultra-personnalisés. Au lieu d'une simple fraude du fisc ou du support technique, les fraudeurs peuvent désormais cibler leurs victimes avec des informations précises sur leurs achats, leurs antécédents de voyage, voire leur état de santé.

L'IA améliore également l'usurpation d'identité de l'appelant, permettant aux escrocs de manipuler les numéros de téléphone pour qu'ils se fassent passer pour des entreprises locales, des agences gouvernementales, voire les contacts de la victime. Cela augmente la probabilité que les gens décrochent, rendant les appels frauduleux plus difficiles à ignorer.

LA CONTRE-OFFENSIVE DES TÉLÉCOMS : IA VS. IA

Alors que les fraudeurs perfectionnent leurs outils d'IA, les entreprises de télécommunications et les régulateurs ripostent avec leur propre intelligence artificielle, déployant des systèmes avancés pour détecter, tracer et bloquer les appels malveillants avant même qu'ils n'atteignent les consommateurs.

1. Authentification des appels et détection des fraudes par l'IA

Pour lutter contre l'usurpation d'identité, les opérateurs de télécommunications exploitent des technologies d'analyse et d'authentification vocales basées sur l'IA. Aux États-Unis, le cadre STIR/SHAKEN utilise des signatures cryptographiques pour vérifier que les appels proviennent de sources légitimes. Mais face à l'adaptation rapide des escrocs, la détection des fraudes par l'IA devient essentielle.

Des modèles d'apprentissage automatique entraînés sur des milliards de modèles d'appels peuvent analyser les métadonnées en temps réel pour signaler des anomalies, telles que des pics soudains d'appels provenant de régions spécifiques ou des numéros liés à des escroqueries connues. Ces systèmes d'IA peuvent même détecter des marqueurs acoustiques subtils, typiques des voix générées par deepfake, contribuant ainsi à bloquer les appels frauduleux avant même qu'ils ne soient connectés.

2. Filtrage et blocage des appels au niveau de l'opérateur

Les principaux opérateurs de télécommunications intègrent le filtrage des appels par l'IA directement à leurs réseaux. Les solutions Call Protect d'AT&T (https://www.att.com/support/article/u-verse-voice/KM1235421/), Scam Shield de T-Mobile (https://www.t-mobile.com/benefits/scam-shield) et Call Filter de Verizon (https://www.verizon.com/solutions-and-services/add-ons/protection-and-security/call-filter/) utilisent toutes l'IA pour détecter les tendances suspectes et bloquer les appels à haut risque avant qu'ils n'atteignent les utilisateurs. Les solutions Call Check de la GSMA (https://www.gsma.com/solutions-and-impact/industry-services/call-check/) et International Revenue Share Fraud (IRSF) offrent également une protection des appels en temps réel en vérifiant la légitimité et en luttant contre l'usurpation d'identité de la ligne appelante.

Pour plus de contexte, le système de prévention IRSF de la GSMA exploite les données propriétaires des numéros internationaux surtaxés (IPRN) et une plateforme OSINT (intelligence open source) avancée pour fournir des renseignements exploitables en temps réel sur la fraude. Il suit plus de 20 millions d'IPRN, d'itinéraires détournés et de réseaux ciblés, aidant ainsi les opérateurs de télécommunications à lutter proactivement contre les fraudes IRSF et Wangiri.

3. Biométrie vocale basée sur l'IA pour la vérification de l'appelant

La biométrie vocale est une autre ligne de défense prometteuse contre la fraude générée par l'IA. Certaines institutions financières et certains opérateurs de télécommunications déploient des systèmes d'authentification vocale qui analysent plus de 1 000 caractéristiques vocales uniques pour vérifier l'identité de l'appelant. Contrairement à la reconnaissance vocale de base, ces systèmes avancés peuvent détecter l'utilisation d'une voix générée par l'IA, empêchant ainsi efficacement les fraudeurs de se faire passer pour des clients légitimes.

LES AUTORITÉS DE RÉGULATION SÉVÈRENT, MAIS EST-CE SUFFISANT ? -----------------------------------------------

Renforcer la réglementation et alourdir les sanctions est une chose – ce que font déjà de nombreuses agences gouvernementales à travers le monde – mais appliquer efficacement ces réglementations est une toute autre affaire. Aux États-Unis, par exemple, la FCC (Federal Communications Commission) a renforcé les sanctions pour les appels automatisés illégaux et incite les opérateurs à adopter des défenses plus strictes basées sur l'IA. La loi TRACED (Telephone Robocall Abuse Criminal Enforcement and Deterrence), promulguée en 2019, confère aux régulateurs davantage de pouvoirs pour infliger des amendes aux escrocs et impose des mesures plus strictes contre l'usurpation d'identité.

À l'échelle internationale, les régulateurs du Royaume-Uni, du Canada et de l'Australie travaillent sur des cadres similaires basés sur l'IA afin de protéger les consommateurs contre la fraude croissante. L'Union européenne a instauré des lois plus strictes sur la confidentialité des données, limitant ainsi l'utilisation de l'IA pour collecter des données personnelles à des fins d'escroquerie.

Cependant, l'application de la loi peine à suivre le rythme des innovations en matière d'IA. Les escrocs opèrent à l'échelle mondiale, souvent hors de la juridiction d'un seul régulateur. De nombreux réseaux de fraude sont basés dans des pays où les poursuites judiciaires sont difficiles, voire impossibles.

Prenons l'exemple de pays comme le Myanmar, le Cambodge et le Laos, où des groupes criminels organisés ont créé des centres de cyberescroquerie qui utilisent des deepfakes alimentés par l'IA pour tromper leurs victimes dans le monde entier. Les opérateurs de ces centres de cyberescroquerie déménagent ou adaptent fréquemment leurs tactiques pour garder une longueur d'avance sur les forces de l'ordre. Ils opèrent également dans des régions où les enjeux juridictionnels sont complexes, ce qui complique encore davantage l'application de la loi.

Les escrocs prospèrent grâce à la fragmentation et exploitent les vulnérabilités, qu'il s'agisse d'un manque de coordination sectorielle ou de différences d'approches réglementaires entre les pays. Ces obstacles réglementaires soulignent la nécessité pour les opérateurs de télécommunications de jouer un rôle plus proactif dans la lutte contre la fraude liée à l'IA, plutôt que de s'appuyer uniquement sur des cadres traditionnels qui, bien qu'utiles, ne sont pas toujours efficaces. C'est là que la technologie Call Check de la GSMA, développée par le fournisseur allemand de solutions de télécommunications Oculeus, pourrait jouer un rôle essentiel.

« Les services Call Check de la GSMA offrent un mécanisme simple, rapide et économique pour l'échange d'informations sur les appels téléphoniques frauduleux au fur et à mesure qu'ils se produisent.  Cette technologie est ancrée dans le cloud, ce qui la rend pérenne et mondiale, ce que d'autres méthodes envisagées par certains pays ne pourront jamais être », explique Priezkalns de Commsrisk.

LOIN D'ÊTRE TERMINÉE

Il ne fait aucun doute que la lutte contre les escroqueries utilisant l'IA est loin d'être terminée. Comme l'a souligné l'ancienne présidente de la FCC, Jessica Rosenworcel l'an dernier : « Nous savons que les technologies d'IA permettront d'inonder nos réseaux de deepfakes, utilisés pour tromper et trahir la confiance, à moindre coût. »

La bonne nouvelle, c'est que le secteur des télécommunications ne recule pas. Si les escrocs utilisent l'IA pour tromper des personnes peu méfiantes, le secteur exploite également l'IA pour protéger ses clients et leurs données sensibles, grâce au filtrage automatisé des appels, à la détection des fraudes en temps réel et à des mesures d'authentification renforcées.

Mais selon Priezkalns, la technologie seule ne suffit pas à protéger les personnes. Pour lui, la dissuasion, portée par la poursuite judiciaire des escrocs, est tout aussi importante que les solutions technologiques. « Elle doit être utilisée en conjonction avec les forces de l'ordre qui arrêtent proactivement les escrocs et les systèmes juridiques qui garantissent que les escrocs sont punis pour leurs crimes », affirme-t-il.

Une chose est sûre : les escrocs et les arnaques ne sont pas près de disparaître. Comme le souligne Priezkalns, les gens continueront de se faire avoir, même avec une sensibilisation intensive du public. Mais face à l'évolution continue de l'IA, le secteur des télécommunications doit garder une longueur d'avance et s'assurer qu'il devienne un outil de protection, et non de tromperie. Et avec des outils comme Call Check de la GSMA, cet avenir est à portée de main.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c