Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6908

Incidentes Asociados

Incidente 11942 Reportes
L.A. Woman Reportedly Defrauded of $81,000 and $350,000 Condo Proceeds in Romance Scam Using Purported Deepfake Videos of Actor Steve Burton

Loading...
Una mujer de California pierde su casa tras ser estafada por una inteligencia artificial que se hacía pasar por un actor.
ktla.com · 2025

Una mujer del sur de California perdió su hogar tras una elaborada estafa romántica que utilizó inteligencia artificial para robarle los ahorros de toda su vida.

Abigail Ruvalcaba, de 66 años, creía haberse enamorado del actor de General Hospital, Steve Burton.

Hace más de un año, conoció a quien creía ser Burton en Facebook. Tras comunicarse en línea y por videollamadas, finalmente creyó que su relación era real.

"Pensé que estaba enamorada", le contó Abigail a Sandra Mitchell de KTLA. "Pensé que íbamos a tener una buena vida juntos".

Lo que no sabía es que los videos que le enviaban eran deepfakes creados por un estafador que utilizó inteligencia artificial para robar la voz y la imagen de Burton. El video hiperrealista hacía parecer que el actor realmente estaba hablando con ella.

"Para mí, parece real, incluso ahora", dijo. "No sé nada de inteligencia artificial".

Al poco tiempo, el estafador comenzó a pedirle a Ruvalcaba que le enviara dinero que eventualmente devolverían. Su familia dijo que fue víctima de manipulación emocional y le envió al estafador más de $81,000 en efectivo.

“Y luego cheques, Zelle y Bitcoin, lo era todo”, dijo.

La estafa continuó y, tras regalar los ahorros de toda su vida, Abigail aceptó vender el condominio de su familia por $350,000 y enviar las ganancias al estafador.

“Sucedió rapidísimo, en menos de tres semanas”, dijo Vivian Ruvalcaba, hija de la víctima. “La venta de la casa se concretó. Se acabó”.

Vivian dijo que debido a la salud mental de su madre, quien padecía un trastorno bipolar severo, se convirtió en un blanco fácil para los estafadores.

“Discutió conmigo y me dijo: ‘No, ¿cómo me dices que es IA si suena como él? Esa es su cara, esa es su voz, lo veo en la televisión todo el tiempo’”, dijo Vivian cuando confrontó a su madre por la estafa.

En una página de GoFundMe para ayudar a Abigail, su hija, Vivian Ruvalcaba, contó que solo le quedaban $45,000 de la hipoteca, pero en su afán por enviarle más dinero al estafador, Abigail vendió su condominio a una inmobiliaria por un precio muy inferior al del mercado.

Según se informa, el nuevo propietario revendió la casa y se la vendió a otro propietario.

“Cuando descubrí la estafa en febrero de 2025, contacté de inmediato a todos los involucrados, les proporcioné mi poder notarial y presenté tres cartas médicas de sus médicos que confirmaban que mi madre no tenía la capacidad para tomar estas decisiones”, escribió Vivian en GoFundMe.

Afirma que el nuevo propietario les ofreció revenderles el condominio por $100,000 más de lo que pagaron, dinero que la familia no tiene.

Los informes sobre las estafas deepfake que usan la imagen de Burton también llevaron al actor a emitir una advertencia a sus seguidores en redes sociales.

Para Abigail y su familia, la advertencia llegó demasiado tarde y podrían verse obligados a mudarse de su casa. Su hija dijo que la familia planea demandar a las empresas que compraron el condominio y esperan que su abogado pueda evitar que su madre sea desalojada el 3 de septiembre.

Abigail dijo que está devastada por la experiencia y que desearía haber sabido lo que estaba sucediendo antes de caer en la trampa. Espera que, al compartir su historia, evite que otros cometan el mismo error.

"Me siento estúpida, estafada", dijo. "¿Por qué alguien me pide dinero? Me siento como una tonta. Estaba en un mundo de fantasía, obviamente".

Puede encontrar una página de GoFundMe para ayudar a Abigail con los gastos legales aquí.

Los funcionarios del FBI ofrecen estos consejos para protegerse de una estafa de romance deepfake:

  • Nunca envíe dinero a nadie con quien solo se haya comunicado en línea o por teléfono.
  • Tenga cuidado si la persona parece demasiado perfecta o le pide rápidamente que abandone un servicio de citas o una red social para comunicarse directamente.
  • Esté alerta si intenta aislarlo de sus amigos y familiares o si le solicita fotos o información financiera inapropiada que luego podría usarse para extorsionarlo.
  • Tenga cuidado si promete reunirse en persona pero inventa una excusa para no poder hacerlo. Si no se ha reunido con esa persona después de unos meses, por cualquier motivo, tiene buenas razones para sospechar.

Puede encontrar más información sobre las estafas románticas y cómo protegerse aquí.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd