Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5098

Incidentes Asociados

Incidente 10452 Reportes
Mother in Louisville, Kentucky Describes Phone Scam Involving Purported AI-Generated Voice of Her Daughter

Loading...
Una madre de Louisville advierte sobre una llamada fraudulenta con inteligencia artificial que usa la voz clonada de su hija.
wdrb.com · 2025

LOUISVILLE, Ky. (WDRB) — Una madre de Louisville advierte a los padres tras recibir una llamada de alguien que clonó la voz de su hija.

La madre de Louisville dijo que fue la llamada más aterradora que jamás había recibido.

Era la voz de su hija de 10 años al otro lado de la línea, diciendo que había tenido un accidente y necesitaba ayuda.

La madre llamó inmediatamente a la escuela de su hija, donde se encontraba a salvo, pero quiere advertir a otros en caso de que este estafador también ataque a otros padres.

"Es una pesadilla", dijo Kim Alvey.

Alvey conducía por Louisville el martes por la tarde cuando dijo que recibió la llamada más aterradora de su vida.

"Me decía: 'Mamá, mamá, por favor, ayúdame'", dijo Alvey. "Acabo de tener un accidente. Me atropellaron con un coche y tienes que venir aquí lo antes posible".

Por una fracción de segundo, Alvey pensó que la llamada provenía de su hija de 10 años.

"Estaba muy nerviosa. Gritaba. Era casi como si estuviera llorando. Definitivamente supe que era su voz. Era ella. Conozco la voz de mi hija", dijo Alvey.

Entonces, Alvey escuchó la voz de un hombre que se hacía llamar Héctor y amenazó con secuestrar a su hija.

"Si llamas a la policía, no vas a recuperar a tu hija", le dijo la persona que llamó. "Ahora mismo la tengo en mi auto, ven a buscarla ahora mismo".

Alvey intentó conectar a su esposo, pero la persona colgó.

Todas las posibilidades pasaron por la cabeza de Alvey en cuestión de segundos.

"Estaba en pánico. Solo podía pensar en ponerle las manos encima a mi hija", dijo Alvey. No le di la oportunidad de decirme dónde encontrarme con él ni de preguntar si quería dinero. Ni siquiera le di esa oportunidad. Colgué inmediatamente y llamé a la escuela.

De hecho, su hija seguía en la escuela y a salvo.

Fue entonces cuando Alvey se dio cuenta de que la llamada era una estafa, pero durante esos pocos minutos, su mundo se puso patas arriba.

"La abracé de inmediato durante 10 minutos, llorando a mares, y le dije que nunca la soltaría", dijo Alvey.

El FBI ha emitido una advertencia sobre delincuentes que utilizan inteligencia artificial para hacer la estafa más creíble. Los estafadores utilizan texto, imágenes, videos y clonación de voces para hacerse pasar por alguien conocido o cercano.

En un anuncio de servicio público en diciembre, la agencia dijo que los delincuentes generan breves clips de audio con la voz de un ser querido para hacerse pasar por un familiar cercano en una situación de crisis.

"No sé si quería dinero", dijo Alvey. No sé si me quería, pero quería algo. Sabía mi nombre, sabía el de mi hija, sabía mi número de teléfono y tenía la voz de mi hija; todo era tan real y creíble. Da mucho miedo.

Alvey dijo que el número tenía un código de área 502, y por eso contestó.

WDRB intentó devolver la llamada, pero no hubo respuesta, y nadie nos ha devuelto la llamada.

El hombre volvió a llamar a Alvey dos veces más. Dijo que solo quería correr la voz para que nadie fuera víctima de una llamada como esta.

Los expertos sugieren crear una palabra de seguridad que su familia pueda usar si realmente necesitan ayuda. Verifique dónde está su ser querido o quién llama si puede, y nunca envíe dinero a personas que no conozca en persona.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd