Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5069

Incidentes Asociados

Incidente 10301 Reporte
Aspiring Artist Cherelle Kozak Reportedly Targeted by AI-Powered Impersonation of Rapper Fat Joe

Loading...
"Es Fat Joe", un aspirante a artista residente en Austin, víctima de una estafa de suplantación de identidad impulsada por IA.
cbsaustin.com · 2025

AUSTIN, Texas — En un mundo donde las conexiones están a solo una videollamada de distancia, es fácil confiar en la cara que aparece en la pantalla. Ya sea para citas, networking o simplemente para ponerse al día, FaceTime y las videollamadas en redes sociales ayudan a acortar distancias, pero ¿y si esa cara es una mentira?

Con la ayuda de la inteligencia artificial, los estafadores pueden hacer que las estafas de suplantación de identidad parezcan más realistas que nunca, según el Better Business Bureau.

Cherelle Kozak es una joven artista con aspiraciones y directora en CBS Austin News. Un estafador la eligió específicamente para una de estas estafas.

“Recibí un mensaje de texto a eso de las tres, creo, casi las cuatro, que decía: ‘Oye, me gusta mucho tu música’”, dijo Kozak, recordando la primera vez que este estafador se puso en contacto.

“Eres genial, ¿sabes quién es?”, recordó. “Les dije: ‘No, no sé quién es’, y me respondieron: ‘Es Fat Joe’”.

La persona al otro lado se hacía pasar por el rapero Fat Joe, éxito en las listas de éxitos.

"Hablé con él por teléfono y, en realidad, era él en el estudio diciendo 'yo, yo, yo', 'estoy en el estudio'", dijo Kozak.

Este estafador de "Fat Joe" le dijo a Kozak que quería enviar una de sus canciones a una estación de radio y que, si le iba bien, la ficharía en su plataforma. Kozak creyó en ese momento que esta podría ser su gran oportunidad. Le enviaron un enlace a un portal donde subió sus canciones.

Inmediatamente después, dijo que recibió un mensaje pidiéndole dinero para reproducir sus canciones en la radio, y fue entonces cuando empezó a atar cabos. Una búsqueda rápida en Google y una publicación en redes sociales del propio Fat Joe alertando a sus fans sobre la estafa confirmaron su intuición.

El director sénior de Relaciones con los Medios del Better Business Bureau, Jason Meza, dijo que ve denuncias de estafas de suplantación de identidad constantemente.

Hemos visto muchísimos ejemplos de estafas de suplantación de identidad que involucran a la CBP (Aduanas y Protección Fronteriza de EE. UU.), la Patrulla Fronteriza, las fuerzas del orden, políticos, líderes religiosos y, sí, celebridades.

Meza coincide en que la IA está dificultando mucho la detección de este tipo de estafas.

“Pueden imitar tu voz y tus labios y hacer que parezca que estás diciendo algo cuando en realidad no es así”, dijo. “Parecen reales. Puede que yo ni siquiera lo sea ahora mismo”.

Según Meza, los tejanos perdieron más de 2 millones de dólares en estafas de suplantación de identidad en 2024.

Entonces, ¿cómo logran los estafadores hacer que estas llamadas, el video y el audio sean tan realistas? Basta con un clip de tres segundos de cualquier persona en línea, según Meza. Ese clip se procesa mediante un software y se reproduce en el rostro del estafador.

“Les decimos a las personas que tengan cuidado de no compartir información en exceso y que resistan la tentación de actuar de inmediato”, dijo Meza. Verifica dos veces a las personas con las que hablas virtualmente y asegúrate de reportar tus experiencias.

Meza recomienda reportar al Better Business Bureau (BBB) si has perdido dinero en una de estas estafas. Esto podría ayudarles a procesar a los implicados.

"Estamos armando un rompecabezas enorme, y cuantos más nombres tengamos, más experiencias tendremos", dijo Meza. "Podrías ser el eslabón perdido, así que no te dé vergüenza denunciar".

En cuanto a Kozak, por suerte no le dio dinero al estafador que la contactó, pero tiene un mensaje para la persona detrás de la inteligencia artificial:

"Solo estás acortando tus bendiciones y todo, aprovechando ese momento porque la gente es muy apasionada e invierte su dinero en cosas diferentes. Jugar con la gente no es genial".

Este es un buen recordatorio para que siempre confiemos en nuestro instinto y nos esforcemos para asegurarnos de hablar con la persona que creemos ser.

Podría ahorrarte tiempo, dinero y frustración.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd