Incidente 1240: Supuesta falsificación profunda generada por IA del cofundador de Infosys, N. R. Narayana Murthy, utilizada en una estafa de inversión que supuestamente defraudó a una mujer de 79 años de Bengaluru por ₹35 lakh (unos $40,000).
Descripción: Una mujer de 79 años ("Archana") en Bengaluru fue presuntamente estafada por 35 lakhs de rupias (unos 40.000 dólares) en una supuesta estafa de inversión basada en inteligencia artificial que utilizó vídeos deepfake del cofundador de Infosys, N. R. Narayana Murthy, para promocionar una plataforma de inversión falsa. Los estafadores supuestamente crearon un sitio web convincente y presionaron a la víctima durante ocho meses para que realizara pagos cada vez más cuantiosos. Posteriormente, supuestamente intentaron extorsionarla amenazándola con un caso falso de blanqueo de capitales antes de que interviniera la policía.
Editor Notes: Timeline note: This scam reportedly took place over an eight-month period leading up to June 2025, during which the victim was alleged to have been repeatedly contacted and defrauded. Because the Times of India article documenting the incident was published on 06/27/2025, that date is used for the incident ID. It was added to the AI Incident Database on 10/19/2025.
Entidades
Ver todas las entidadesAlleged: Unknown voice cloning technology y Unknown deepfake technology developed an AI system deployed by Unknown scammers impersonating N. R. Narayana Murthy y Unknown scammers, which harmed N. R. Narayana Murthy , Investors , General public of India , General public , Elderly investors , Elderly individuals y Archana.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , Unknown deepfake technology , WhatsApp , Social media , Fake trading platform y Facebook
Estadísticas de incidentes
ID
1240
Cantidad de informes
1
Fecha del Incidente
2025-06-27
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
BENGALURU: Una mujer de 79 años de Seshadripuram, en el centro de Bengaluru, perdió casi 35 lakhs de rupias a manos de estafadores que operaban una sofisticada estafa de comercio con inteligencia artificial (IA). La banda no solo la estafó …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

