Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6209

Incidentes Asociados

Incidente 12062 Reportes
Purported AI-Generated Deepfake of Spiritual Leader Sadhguru Used in Investment Scam Allegedly Defrauding Bengaluru Woman of ₹3.75 Crore (~$425,000)

Loading...
Mujer de Bengaluru fue estafada con 3,75 millones de rupias por un video deepfake de Sadhguru, según la policía.
indianexpress.com · 2025

Una mujer jubilada de 57 años en Bengaluru perdió 3,75 millones de rupias a manos de estafadores que usaron un video deepfake generado por IA del líder espiritual Sadhguru Jaggi Vasudev para promocionar falsas oportunidades de inversión, según informó la policía el jueves.

La mujer, residente de CV Raman Nagar, desconocía por completo la tecnología deepfake cuando encontró lo que parecía un video genuino de Sadhguru en redes sociales entre el 25 de febrero y el 23 de abril.

En su denuncia, presentada ante la comisaría de policía de East CEN, declaró: "Vi un video de Sadhguru que afirmaba haber estado haciendo negocios con la empresa, cuyo enlace se proporciona a continuación. Si hace clic en él e introduce su nombre, correo electrónico y número de teléfono por un importe de 250 dólares, sus finanzas mejorarán considerablemente".

Tras seguir las instrucciones, la mujer fue contactada por una persona que se hacía llamar Waleed B, quien afirmaba representar a la empresa Mirrox. El estafador operaba a través de varios números de teléfono del Reino Unido y añadió a la mujer a un grupo de WhatsApp con aproximadamente 100 miembros. Luego, la redirigió a varios sitios web y le indicó que descargara la aplicación de trading de acciones Mirrox.

Estrategias de manipulación

Waleed impartía tutoriales de trading por Zoom y posteriormente presentó a otro cómplice, Michael C, como instructor sustituto. Los estafadores emplearon tácticas psicológicas: los miembros del grupo compartían regularmente ganancias falsas y capturas de pantalla de supuestos créditos de cuenta para generar confianza y legitimidad, según el FIR.

Convencida por estas estrategias de manipulación, la mujer comenzó a transferir dinero a cuentas bancarias proporcionadas por los estafadores. Para el 23 de abril, había transferido la totalidad de los 3,75 millones de rupias en múltiples transacciones, y la plataforma falsa mostraba una rentabilidad impresionante de sus inversiones.

La mujer se dio cuenta de que la habían estafado solo cuando intentó retirar sus ganancias. Los estafadores le exigieron pagos adicionales por comisiones de procesamiento e impuestos, lo que despertó sus sospechas. Cuando se negó a pagar estos cargos adicionales, los estafadores interrumpieron toda comunicación. Desde que la mujer presentó su denuncia el martes, casi cinco meses después de que concluyera el fraude, un agente de policía declaró que recuperar el dinero perdido sería difícil. El agente añadió que las autoridades estaban coordinando con los bancos para congelar las cuentas de los estafadores.

En junio de este año, Sadhguru Vasudev Jaggi y su Fundación Isha acudieron al Tribunal Superior de Delhi (https://indianexpress.com/section/cities/delhi/) por el uso indebido de su identidad mediante deepfakes generados con IA.

¿Qué es deepfake?

Deepfake es una combinación de los términos "aprendizaje profundo" y "falsificación". Se refiere a un software de inteligencia artificial que superpone una composición digital a un archivo de vídeo o audio existente. Los deepfakes se generan mediante modelos de aprendizaje automático que emplean redes neuronales para manipular imágenes y vídeos.

En enero de 2024, el video deepfake de la actriz Rashmika Mandanna se volvió viral y la policía arrestó a Eemani Naveen, un ingeniero de Andhra Pradesh, quien creó el video para aumentar sus seguidores en Instagram. El periodista Rajdeep Sardesai y la presidenta de la Fundación Infosys Sudha Murty, esposa de Narayana Murthy, son otras de las personalidades prominentes cuyos videos deepfake han sido utilizados por ciberdelincuentes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd