Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5140

Incidentes Asociados

Incidente 10532 Reportes
Mumbai Businessman Reportedly Defrauded via Purported AI-Cloned Voice Impersonating Son

Loading...
Un empresario de Mumbai es víctima de la clonación de voz por IA y pierde 80.000 rupias.
timesofindia.indiatimes.com · 2024

MUMBAI: Un empresario de 68 años de Powai fue víctima de una estafa de clonación de voz mediante inteligencia artificial, perdiendo 80.000 rupias. La estafa consistió en una llamada falsa, supuestamente de la Embajada de la India en Dubái, en la que se afirmaba falsamente que el hijo del empresario, KT Vinod, de 43 años, había sido arrestado y enfrentaba cadena perpetua el 30 de marzo.

La policía de Kanjurmarg, que registró el caso el miércoles basándose en la denuncia de Vinod, afirmó que el estafador incluso reprodujo la voz de su hijo por teléfono, solicitando la libertad bajo fianza.

El empresario fue engañado cuando se encontraba en su oficina de Kanjurmarg el 30 de marzo a las 12:45 p. m., cuando recibió una llamada supuestamente de la Embajada de la India, informándole de que su hijo Amit había sido arrestado en Dubái.

En la denuncia, Vinod declaró: "Quedé en shock. Antes de que pudiera recuperarme, la persona me hizo escuchar una voz parecida a la de mi hijo, que lloraba pidiendo ayuda y me pedía que lo rescatara. El estafador no me dio tiempo para reflexionar ni me permitió llamar al móvil de mi hijo. En cambio, me dijeron que transfiriera el dinero inmediatamente; de lo contrario, mi hijo sería condenado a cadena perpetua".

Un agente de policía de Kanjurmarg declaró que el estafador le dijo a Vinod que transfiriera el dinero a través de GPay. "Como Vinod no usaba el servicio de GPay, pidió al personal de su oficina que transfiriera el dinero. Se dio cuenta de que lo habían engañado cuando el estafador cortó la llamada inmediatamente en el momento en que se transfirió el dinero. Vinod llamó inmediatamente a su hijo en Dubái y descubrió que lo habían recluido en su domicilio y que nunca fue detenido ni arrestado. El equipo cibernético está rastreando los datos bancarios para localizar al acusado", declaró el agente. En el primer caso, ocurrido el 2 de abril, SS Sarkar (58), profesora de la Universidad NMIMS, fue víctima de un fraude y perdió 100.000 rupias. Recibió una llamada de alguien que decía ser el "Inspector Vijaykumar" de la policía de Mumbai, quien le informó que su hijo había sido detenido. Sarkar se encontraba en su trabajo en la universidad Vile Parle cuando recibió la llamada, donde le dijeron que debía transferir dinero para liberar a su hijo o, de lo contrario, sería enviado a prisión.

"En el caso de Sarkar, el estafador logró recopilar su perfil y datos familiares de las redes sociales con la ayuda de inteligencia artificial", declaró un oficial de policía de Juhu.

Un alto funcionario de la IPS afirmó que es poco probable que las llamadas telefónicas sean la fuente directa de los ataques telefónicos. Sin embargo, los mensajes de texto pueden contener malware, y tanto las llamadas como los mensajes de texto pueden utilizarse para lanzar ataques de phishing u otras estafas para engañar al usuario y obligarlo a proporcionar información confidencial, transferir dinero o descargar virus o spyware.

“En el caso del empresario Vinod, el estafador utilizó IA para clonar la voz de su hijo, la cual fue utilizada para chantajearlo y engañarlo”, declaró el agente.

El experto en ciberseguridad Ritesh Bhatia afirmó que las estafas de clonación de voz con IA están proliferando, mostrando una variedad y sofisticación cada vez mayores. Los perpetradores utilizan voces similares o extraen las voces de familiares de las redes sociales para manipular a sus víctimas. Manténgase alerta ante llamadas de desconocidos, que a menudo llaman desde números falsos. Contacte con la supuesta parte afectada o con las autoridades para verificar la información. Además, asegúrese de denunciar estos números a la policía.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd