Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1131: Presunta estafa de identidad falsa utiliza la imagen de un agente inmobiliario de Miami Beach para estafar a una víctima en el Reino Unido en una supuesta estafa romántica.

Traducido por IA
Descripción:
Traducido por IA
Un estafador supuestamente utilizó tecnología de video deepfake para hacerse pasar por el agente inmobiliario de Miami Beach, Andrés Asion, creando videos falsos con su rostro y una voz clonada para engañar a una mujer en el Reino Unido. La víctima se comunicó durante aproximadamente un año antes de viajar a Miami, donde Asion descubrió el fraude. Los videos resultaron convincentes incluso para sus amigos y familiares.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by Unknown scammers , Unknown fraudsters y Unknown scammers impersonating Andres Asion, which harmed Unnamed woman in the United Kingdom y Andres Asion.
Sistemas de IA presuntamente implicados: Unknown deepfake technology developer y Unknown voice cloning technology developer

Estadísticas de incidentes

ID
1131
Cantidad de informes
2
Fecha del Incidente
2025-04-21
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+1
Videos deepfake de un hombre de Miami Beach utilizados para engañar a una mujer en el Reino Unido
Videos deepfake de un hombre de Miami Beach utilizados para engañar a una mujer en el Reino Unido

Videos deepfake de un hombre de Miami Beach utilizados para engañar a una mujer en el Reino Unido

local10.com

Videos deepfake de un hombre de Miami Beach fueron usados para estafar sentimentalmente a una mujer en Reino Unido

Videos deepfake de un hombre de Miami Beach fueron usados para estafar sentimentalmente a una mujer en Reino Unido

local10.com

Videos deepfake de un hombre de Miami Beach utilizados para engañar a una mujer en el Reino Unido
local10.com · 2025
Traducido por IA

MIAMI BEACH, Florida – Una mujer está desconsolada tras creer haberse estado comunicando con el amor de su vida, solo para descubrir que todo era mentira.

Le enviaron videos que mostraban el rostro del agente inmobiliario de Miami Beach, An…

Videos deepfake de un hombre de Miami Beach fueron usados para estafar sentimentalmente a una mujer en Reino Unido
local10.com · 2025

MIAMI BEACH, Fla. -- Una mujer en el Reino Unido quedó devastada tras descubrir que el supuesto amor de su vida no era quien decía ser.

Los videos que creía haber recibido de un hombre en Miami Beach eran en realidad falsificaciones generad…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Dec 2021 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Dec 2021 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a