Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4454

Incidentes Asociados

Incidente 8917 Reportes
AI Voice Scam Targets Westchester Parents with Fake Kidnapping Ransom Calls

Loading...
La policía advierte sobre una estafa de secuestro dirigida a padres en el condado de Westchester
abc7ny.com · 2025

CONDADO DE WESTCHESTER (WABC) -- Hay una nueva estafa aterradora y escalofriante que se dirige a los padres y a sus hijos.

Está apareciendo en el Distrito Escolar de Peekskill en el Condado de Westchester.

Los malhechores afirman que han secuestrado a niños y quieren dinero.

Utilizan inteligencia artificial para falsificar las voces de sus hijos.

El Superintendente de Escuelas de Peekskill advierte que dos familias han recibido llamadas telefónicas que afirman que un ser querido ha sido secuestrado y exigen un rescate.

Es una vieja estafa con un nuevo giro. Se utiliza tecnología de inteligencia artificial para hacer que suene como si la llamada viniera de la supuesta víctima.

Jonathan Munson es profesor de informática en la Universidad de Manhattanville.

Afirma que se pueden extraer muestras de voz de los canales de las redes sociales.

"Si tienen muestras de las voces, pueden utilizarlas para básicamente replicar la voz", dijo Munson.

El mes pasado, el FBI emitió una alerta a nivel nacional sobre el creciente uso de inteligencia artificial para hacerse pasar por un pariente cercano en una situación de crisis.

En una demostración de ABC News se muestra lo realista que suena una llamada completamente generada por computadora.

Una característica distintiva de prácticamente cualquier estafa es presionar a la víctima para que actúe rápidamente, por lo que los expertos dicen que es crucial tomarse un minuto para preguntarse: ¿podría ser esto una estafa?

"Esa es la clave para poder hacer una pausa y obtener esa verificación que el FBI menciona. El primer paso es verificar el paradero de esta persona", dijo Munson.

Otra salvaguarda es que las familias tengan una contraseña o frase que puedan solicitar para demostrar que una llamada es real.

La policía de Peekskill está investigando los dos incidentes en la comunidad mientras las autoridades difunden la conciencia para evitar que las personas sean víctimas de esta preocupante tendencia.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd