Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4647

Incidents associés

Incident 92726 Rapports
Fraudsters Allegedly Use AI-Generated Voice of Italian Defense Minister Guido Crosetto to Scam Business Leaders

Loading...
Faux Crosetto, des arnaques comme celle-ci peuvent toucher n'importe qui : voici comment vous défendre
repubblica.it · 2025

L'arnaque du faux "Crosetto" a été une grande œuvre de professionnels, mais à plus petite échelle, quelque chose de général peut aussi toucher un public plus large : toute personne qui gère des virements bancaires dans une entreprise par exemple ; pas nécessairement des managers. C'est déjà arrivé. Et à un niveau plus simple, les escroqueries se faisant passer pour un parent, un ami ou une célébrité ciblent également les gens ordinaires, de plus en plus ces dernières années.

Les techniques les plus sophistiquées exploitent l'intelligence artificielle

Les escrocs peuvent cloner la voix d’une personne avec seulement quelques secondes d’enregistrement et l’utiliser pour tromper leurs amis, leur famille ou leurs collègues.

Cette année, à Trévise, une femme de 84 ans a été contactée par quelqu'un utilisant une reproduction artificielle de la voix de sa fille. Lors de l'appel, la fausse fille, en larmes, a déclaré qu'elle avait eu un accident de voiture et a demandé de l'argent. Convaincue de l'authenticité de l'appel, la femme âgée a remis 30 000 euros à un escroc. En 2023, la voix d'une jeune fille de 15 ans, Jennifer DeStefano, a été clonée pour simuler un enlèvement. Les escrocs ont contacté la mère, reproduisant la voix paniquée de sa fille, et ont exigé une rançon. Heureusement, l’arnaque a été découverte à temps.

En juillet 2024, cependant, une arnaque a utilisé la voix clonée du PDG de Ferrari.

Parfois, vous n’avez pas besoin de l’IA pour tromper. Ce mois-ci, Sandra Bullock a dévoilé de faux profils Facebook se faisant passer pour sa sœur, Gesine. Ces escrocs ont contacté des personnes prétendant être en communication directe avec Sandra, réussissant à extorquer d'importantes sommes d'argent aux victimes. Malgré les signalements adressés à Meta et les poursuites judiciaires engagées, ces faux comptes ont continué à proliférer. Un cas rapporté par le technologue de Striscia la Notizia Marco Camisani Calzolari montre comment les escrocs utilisent souvent de faux profils de personnes connues pour entamer des conversations privées avec leurs victimes. Dans l’exemple, un faux compte sous le nom de l’entrepreneur Tommaso Mazzanti a contacté les utilisateurs via des messages privés, essayant de les convaincre qu’ils avaient droit à un prix inexistant. Comme vous pouvez le constater, les personnes célèbres et les gens ordinaires sont aussi visés.

Comment se défendre ?

Alors, que faire ? Commençons par les mauvaises nouvelles.

Malheureusement, il n’existe actuellement aucune application infaillible capable de reconnaître une voix clonée par l’IA en temps réel, mais il existe des outils de défense minimes : des applications qui identifient les appels provenant de numéros suspects, comme Hiya AI Phone et Truecaller. Ils ne fonctionnent que si l’escroc a déjà utilisé ce numéro pour d’autres appels de ce type. Une solution pourrait venir à l'avenir des opérateurs téléphoniques, si - comme le demande depuis quelque temps l'autorité Agcom - ils installent des filtres réseau pour bloquer les appels avec de faux numéros (identifiant de l'appelant altéré), souvent utilisés pour rendre les escroqueries plus convaincantes. Par exemple, les escrocs utilisent un numéro de téléphone portable africain mais parviennent à le faire apparaître comme italien et même enregistré auprès d'une certaine institution ou banque.

Le bon sens l'emporte

Quelques précautions de bon sens constituent aujourd’hui la meilleure défense. Non seulement contre les appels frauduleux, mais aussi contre les techniques similaires qui utilisent d'autres moyens, comme le chat social.

Posons-nous des questions personnelles : le manager de Ferrari a réussi à démasquer un deepfake de la voix du PDG Benedetto Vigna de cette manière même : les pirates avaient cloné la voix, mais ne pouvaient pas répondre à une question sur un détail privé de sa vie. Si nous recevons un appel suspect de quelqu’un que nous connaissons, nous demandons quelque chose que seule cette personne peut savoir.

Ou alors rappelons-la immédiatement sur un de ses numéros que nous avons déjà.

Aux États-Unis, le problème devient si grave que de nombreuses familles ont commencé à utiliser un « mot de sécurité », un mot qui n’est partagé qu’entre proches. Si quelqu'un appelle en se faisant passer pour un membre de la famille dans le besoin, nous demandons le mot convenu avant d'agir.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd