Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6209

Incidents associés

Incident 12062 Rapports
Purported AI-Generated Deepfake of Spiritual Leader Sadhguru Used in Investment Scam Allegedly Defrauding Bengaluru Woman of ₹3.75 Crore (~$425,000)

Loading...
Une femme de Bengaluru a été escroquée de 3,75 millions de roupies grâce à une vidéo deepfake de Sadhguru, selon la police.
indianexpress.com · 2025

Une retraitée de 57 ans de Bengaluru a perdu 3,75 millions de roupies à cause d'escrocs qui ont utilisé une vidéo deepfake générée par intelligence artificielle du chef spirituel Sadhguru Jaggi Vasudev pour promouvoir de fausses opportunités d'investissement, a annoncé la police jeudi.

La femme, résidente de CV Raman Nagar, ignorait totalement l'existence de cette technologie lorsqu'elle a découvert ce qui semblait être une vidéo authentique de Sadhguru sur les réseaux sociaux entre le 25 février et le 23 avril.

Dans sa plainte déposée au commissariat de police de l'East CEN, elle a déclaré : « J'ai regardé une vidéo de Sadhguru affirmant avoir effectué des transactions avec l'entreprise. Vous trouverez un lien ci-dessous. Cliquez dessus et saisissez votre nom, votre adresse e-mail et votre numéro de téléphone pour un montant de 250 dollars, et vos finances s'amélioreront considérablement. »

Après avoir suivi les instructions, la femme a été contactée par un individu se faisant appeler Waleed B, qui prétendait représenter la société Mirrox. L'escroc a utilisé plusieurs numéros de téléphone basés au Royaume-Uni et a ajouté la femme à un groupe WhatsApp comptant une centaine de membres. Elle a ensuite été redirigée vers différents sites web et invitée à télécharger l'application de trading Mirrox.

Stratégies de manipulation

Waleed a animé des tutoriels de trading via Zoom, puis a présenté un autre complice, Michael C, comme formateur remplaçant. Selon le FIR, les escrocs ont eu recours à des tactiques psychologiques : les membres du groupe partageaient régulièrement de faux profits et des captures d'écran de prétendus crédits de compte afin d'instaurer la confiance et la légitimité.

Convaincue par ces stratégies de manipulation, la femme a commencé à transférer de l'argent sur des comptes bancaires fournis par les escrocs. Le 23 avril, elle avait transféré la totalité des 3,75 crores de roupies en plusieurs transactions, la fausse plateforme affichant des rendements impressionnants sur ses investissements.

La femme n'a réalisé qu'elle avait été escroquée qu'en tentant de retirer ses profits. Les escrocs ont exigé des paiements supplémentaires pour les frais de traitement et les taxes, éveillant ainsi ses soupçons. Lorsqu'elle a refusé de payer ces frais supplémentaires, les fraudeurs ont coupé toute communication.

Depuis que la femme a déposé plainte mardi, près de cinq mois après la fin de la fraude, un policier a déclaré que la récupération de l'argent perdu serait difficile. Il a ajouté que les autorités se coordonnaient avec les banques pour geler les comptes des fraudeurs.

En juin de cette année, Sadhguru Vasudev Jaggi et sa Fondation Isha ont saisi la Haute Cour de Delhi pour dénoncer l'usurpation de son identité par le biais de deepfakes générés par l'IA.

Qu'est-ce que le deepfake ?

Le deepfake est une combinaison des termes « deep learning » et « fake ». Il désigne un logiciel d'intelligence artificielle qui superpose une composition numérique à un fichier vidéo ou audio existant. Les deepfakes sont générés à l'aide de modèles d'apprentissage automatique qui utilisent des réseaux neuronaux pour manipuler des images et des vidéos.

En janvier 2024, la vidéo deepfake de l'actrice Rashmika Mandanna est devenue virale et la police a arrêté Eemani Naveen, un ingénieur de l'Andhra Pradesh, qui avait créé la vidéo pour augmenter son nombre d'abonnés sur Instagram.

Le journaliste Rajdeep Sardesai et la présidente de la fondation Infosys, Sudha Murty, épouse de Narayana Murthy, comptent parmi les autres personnalités dont les vidéos deepfake ont été utilisées par des cybercriminels.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd