Incidente 1065: Estafadores presuntamente usan avatares generados por IA para hacerse pasar por amigos en Houston, Texas y solicitar dinero.
Descripción: Dos mujeres de Houston denunciaron haber sido víctimas de una presunta estafa relacionada con videos generados por IA que parecían mostrar a amigos de confianza. Los supuestos avatares deepfake se utilizaron, según se informa, a través de redes sociales y aplicaciones de mensajería para solicitar códigos de acceso y promover ventas fraudulentas. Se informa que las víctimas perdieron el control de sus cuentas, y los amigos de las personas suplantadas enviaron dinero creyendo que los videos eran auténticos.
Editor Notes: Timeline note: First public report (that was found) appeared on 09/23/2024; underlying scam likely occurred days or weeks earlier. This incident was added to the database on 05/17/2025.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by Unknown scammers y Unknown fraudsters, which harmed Stacey Svegliato , Sara Sandlin , General public y General public in Houston.
Sistemas de IA presuntamente implicados: Unknown deepfake technology , Unknown voice cloning technology y Social media platforms
Estadísticas de incidentes
ID
1065
Cantidad de informes
1
Fecha del Incidente
2024-09-23
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
HOUSTON - Llevamos un tiempo advirtiéndoles que los estafadores pueden usar Inteligencia Artificial para crear videos falsos y estafar a la gente. Pero, ¿podrías identificar un video deepfake si se parece a uno de tus amigos?
Dos mujeres de…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Amazon Alexa Responding to Environmental Inputs
· 35 informes

Hackers Break Apple Face ID
· 24 informes
Security Robot Rolls Over Child in Mall
· 27 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Amazon Alexa Responding to Environmental Inputs
· 35 informes

Hackers Break Apple Face ID
· 24 informes
Security Robot Rolls Over Child in Mall
· 27 informes