Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5140

Incidents associés

Incident 10532 Rapports
Mumbai Businessman Reportedly Defrauded via Purported AI-Cloned Voice Impersonating Son

Loading...
Un homme d'affaires de Mumbai victime d'un clonage vocal par IA perd 80 000 roupies
timesofindia.indiatimes.com · 2024

MUMBAI : Un homme d’affaires de 68 ans originaire de Powai a été victime d’une arnaque au clonage vocal par intelligence artificielle, lui faisant perdre 80 000 roupies. L’arnaque impliquait un faux appel, prétendument de l’ambassade d’Inde à Dubaï, prétendant que le fils de l’homme d’affaires, KT Vinod, âgé de 43 ans, avait été arrêté et risquait la prison à vie le 30 mars.

La police de Kanjurmarg, qui a enregistré l’affaire mercredi suite à la plainte de Vinod, a déclaré que l’escroc avait même fait jouer la voix du fils au téléphone, plaidant pour une libération sous caution.

L’homme d’affaires a été dupé alors qu’il se trouvait à son bureau de Kanjurmarg le 30 mars à 12 h 45. Il a reçu un appel prétendument de l’ambassade d’Inde l’informant que son fils Amit avait été arrêté à Dubaï.

Dans sa plainte, Vinod a déclaré : « J'étais sous le choc. Avant même que je puisse me remettre, l'individu m'a fait entendre une voix qui ressemblait à celle de mon fils et qui criait à l'aide pour que je le tire d'affaire. L'escroc ne m'a pas laissé le temps de réfléchir ni autorisé à appeler le portable de mon fils. Au lieu de cela, il m'a dit de transférer de l'argent immédiatement, sous peine de réclusion à perpétuité. »

Un policier de Kanjurmarg a déclaré que l'escroc avait demandé à Vinod de transférer l'argent via GPay. « Comme Vinod n'utilisait pas le service GPay, il a demandé à son équipe de transférer de l'argent. Il s'est rendu compte qu'il avait été dupé lorsque l'escroc a immédiatement raccroché dès le transfert. Vinod a immédiatement appelé son fils à Dubaï et a constaté qu'il avait été placé à son domicile et n'avait jamais été arrêté. L'équipe cybernétique recherche les coordonnées bancaires pour retrouver l'accusé », a déclaré l'agent.

Dans le premier cas, survenu le 2 avril, SS Sarkar (58 ans), professeur au NMIMS College, a été victime d'une fraude et a perdu 100 000 roupies. Elle a reçu un appel d'une personne se faisant passer pour l'inspecteur Vijaykumar de la police de Mumbai, l'informant que son fils était arrêté. Sarkar travaillait dans un collège de Vile Parle lorsqu'elle a reçu l'appel. On lui a demandé de transférer de l'argent pour libérer son fils, sous peine d'emprisonnement.

« Dans le cas de Sarkar, l'escroc a réussi à récupérer son profil et des informations familiales sur les réseaux sociaux grâce à l'intelligence artificielle », a déclaré un policier de Juhu.

Un haut responsable de l'IPS a déclaré qu'il était peu probable que les appels téléphoniques soient la source directe des piratages téléphoniques. Cependant, les SMS peuvent contenir des logiciels malveillants, et les appels comme les SMS peuvent être utilisés pour lancer des attaques de phishing ou d'autres escroqueries visant à vous inciter à divulguer des informations sensibles, à transférer de l'argent ou à télécharger des virus ou des logiciels espions.

« Dans le cas de l'homme d'affaires Vinod, l'escroc a utilisé l'IA pour cloner la voix de son fils, ce qui a servi à le faire chanter et à le duper », a déclaré l'agent.

Ritesh Bhatia, expert en cybersécurité, a déclaré que les escroqueries par clonage vocal par IA prolifèrent, avec une variété et une sophistication croissantes. Les auteurs utilisent des voix similaires ou extraient celles des membres de la famille sur les réseaux sociaux pour manipuler leurs cibles. Restez vigilant face aux appelants inconnus, qui utilisent souvent de faux numéros. Contactez la personne prétendument en difficulté ou les autorités pour vérifier. Assurez-vous également de signaler ces numéros à la police.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd