Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6690

Incidentes Asociados

Incidente 12803 Reportes
Reported Use of AI Voice and Identity Manipulation in the Ongoing 'Phantom Hacker' Fraud Scheme

Loading...
La estafa "Phantom Hacker" roba ₹8,350 millones de rupias usando deepfakes de IA
varindia.com · 2025

Una nueva y peligrosa ola de ciberdelincuencia, conocida como la estafa "Phantom Hacker", ha robado más de 8350 millones de rupias (1000 millones de dólares estadounidenses) a víctimas mayores de todo el mundo, principalmente en Estados Unidos, en tan solo un año. Los delincuentes se hacen pasar por agentes de soporte técnico, funcionarios bancarios e investigadores gubernamentales para convencer a las víctimas de que sus cuentas bancarias o dispositivos han sido pirateados.

La estafa se desarrolla en tres fases de manipulación. Primero, los estafadores infunden miedo con falsas alertas de seguridad o ventanas emergentes que afirman infecciones de malware o actividad sospechosa. Después, presionan a las víctimas para que instalen software de acceso remoto, fingiendo que es para protegerse, pero en realidad obtienen el control total del dispositivo de la víctima. Finalmente, los estafadores se hacen pasar por "rescatistas" del gobierno, advirtiendo que el propio banco está comprometido e instruyendo a las víctimas a transferir dinero a una supuesta cuenta segura, totalmente controlada por los estafadores.

La mayoría de las víctimas son personas mayores de 60 años, a menudo con conocimientos digitales limitados, lo que las hace vulnerables a la intimidación y a trampas que les impiden tomar decisiones rápidas. La IA ha acelerado drásticamente la escala de la estafa: la clonación de voz, la suplantación del identificador de llamadas y la falsificación de documentos realistas hacen que el fraude sea casi indistinguible de la comunicación legítima. Los informes indican un aumento del 600% en el fraude basado en IA durante el último año.

El experto en ciberdelincuencia, Prof. Triveni Singh, advierte que los delincuentes modernos se centran en la "confianza y las emociones humanas" en lugar de en los sistemas. Enfatiza que ninguna institución legítima solicita acceso remoto ni transferencias de dinero por teléfono o correo electrónico, e insta a las personas a verificar las comunicaciones sospechosas directamente a través de los canales oficiales.

La estafa del Hacker Fantasma pone de manifiesto cómo se está utilizando el progreso tecnológico para engañar a los más vulnerables. La concienciación, la alfabetización digital y la denuncia inmediata siguen siendo las defensas más sólidas contra estas amenazas en constante evolución.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd