Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4458

Incidentes Asociados

Incidente 8917 Reportes
AI Voice Scam Targets Westchester Parents with Fake Kidnapping Ransom Calls

Loading...
La IA se utiliza para imitar las voces de los niños en estafas de «secuestro virtual»
yahoo.com · 2025

El Distrito Escolar Central de Peekskill en Nueva York advierte a las familias sobre una nueva y preocupante estafa en la que los delincuentes utilizan inteligencia artificial generativa para imitar las voces de los niños en un intento de extorsionar a padres desprevenidos.

En un mensaje enviado a la comunidad esta semana, el superintendente David Mauricio reveló que dos familias habían recibido recientemente llamadas de desconocidos que afirmaban haber secuestrado a un ser querido y exigían un rescate. La naturaleza realista de estas llamadas hizo que las amenazas fueran particularmente alarmantes.

Si bien las llamadas de secuestro falsas dirigidas a explotar a padres preocupados son una táctica familiar para algunos delincuentes, los avances en la tecnología están haciendo que estas estafas sean mucho más convincentes y más difíciles de detectar.

En esta nueva versión de alta tecnología de la estafa --- conocida como "Llamada de extorsión por secuestro virtual" --- los delincuentes usan herramientas impulsadas por inteligencia artificial para replicar la voz de un niño, lo que le da una escalofriante sensación de credibilidad a sus demandas, escribió Mauricio en el mensaje, según Patch Peekskill-Cortlandt.

El mes pasado, la Oficina Federal de Investigaciones emitió una advertencia de que los delincuentes están aprovechando cada vez más la inteligencia artificial generativa para mejorar ["la credibilidad de sus planes"] (https://www.ic3.gov/PSA/2024/PSA241203).

Los investigadores federales describen este método, conocido como "clonación vocal" o "audio generado por IA", como una táctica sofisticada en la que se crean clips de audio con un sonido realista de un ser querido en apuros y se utilizan para obligar a las víctimas a pagar rescates.

Para evitar ser víctima de este esquema de extorsión, Mauricio instó a los padres a verificar la configuración de privacidad de sus cuentas de redes sociales, revisar cualquier información publicada en línea y consultar los consejos que ofrecen los Institutos Nacionales de Salud. (https://ors.od.nih.gov/News/Pages/Beware-of-Virtual-Kidnapping-Ransom-Scam.aspx)

"Además", instó el superintendente, "verifique qué plataformas está utilizando su hijo y qué información están proporcionando".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd