Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6704

Incidentes Asociados

Incidente 12851 Reporte
Purportedly AI-Generated Jason Momoa Deepfake Used in Romance Scam Reportedly Defrauding British Widow of $600,000

Loading...
Una viuda británica pierde más de 600.000 dólares por una estafa generada mediante inteligencia artificial.
cryptopolitan.com · 2025

Una mujer británica perdió más de 600.000 dólares en una estafa generada mediante inteligencia artificial, después de que los estafadores le hicieran creer que mantenía una relación romántica con el actor Jason Momoa. Según informes, los estafadores le enviaron varios videos, creados con inteligencia artificial, del actor afirmando diversas cosas.

Según los informes, los estafadores usaron esas imágenes para mentirle a la viuda británica, diciéndole que podría vivir feliz con el galán de Hollywood, alegando que el dinero que les enviaba se usaría para construir la casa de sus sueños en Hawái.

La viuda británica inició la relación después de que la estrella de Hollywood supuestamente respondiera a sus comentarios en una de sus páginas de fans. Él comenzó a hablar con ella con frecuencia tras el primer contacto, ya que la relación avanzaba rápidamente.

Viuda británica pierde dinero por culpa de estafadores

Según la policía, los estafadores, haciéndose pasar por Momoa, comenzaron a solicitar dinero a la abuela. Él afirmaba que su fortuna estaba vinculada a varios proyectos cinematográficos en los que estaba trabajando. La viuda británica finalmente puso a la venta su casa en Cambridgeshire, transfiriendo más de medio millón de la venta a su supuesto novio. Tras enviar el dinero, los mensajes cesaron y su compañero desapareció.

"Puede parecer descabellado, pero es una historia real, y dejó a una mujer vulnerable sin hogar", declaró la Policía de Cambridgeshire.

La policía afirmó que los estafadores han realizado esta misma estafa a otras víctimas en el Reino Unido y Estados Unidos. Afirmaron que otra mujer británica fue estafada por hasta 80.000 libras esterlinas, y que el estafador empleó la misma técnica de estafa romántica con la estrella de Hollywood para estafar a la desprevenida víctima.

La mujer británica afirmó haber tenido una conversación con su hija, quien, según ella, cumplía 15 años este año. "También me dijeron que estaba peleando con su exesposa por la casa, y que necesitábamos un certificado de matrimonio para conservarla. Así que fui crédula y pagué por ello", añadió.

Dave York, agente de prevención de fraudes, señaló que los estafadores siempre se dirigen a quienes consideran que están en su peor momento, especialmente a las viudas. De alguna manera, se dan cuenta de su desesperación por llenar los vacíos en sus vidas, creando la oportunidad perfecta para los delincuentes.

Famosos denuncian el aumento de deepfakes generados por IA

Además de Jason Momoa, otras figuras populares en Estados Unidos han visto sus fotos y vídeos siendo difundidos por delincuentes. Un ejemplo típico es Steve Harvey, el popular presentador de Family Feud. El año pasado, fue una de las celebridades cuyas voces fueron imitadas por delincuentes para promocionar una estafa que prometía fondos gubernamentales.

"Llevo meses diciéndoles que reclamen estos 6400 dólares gratis", dice una voz que suena como la de Harvey en un video. Sin embargo, Harvey ha instado a los reguladores a investigar este asunto y asegurarse de que los responsables rindan cuentas. "Mi preocupación ahora es la gente a la que afecta. No quiero que mis fans ni quienes no lo son se vean perjudicados", dijo Harvey.

Desde principios de este año, ha habido un gran aumento en el uso de inteligencia artificial por parte de estafadores para llevar a cabo sus fechorías. Según un informe previo de Cryptopolitan (https://www.cryptopolitan.com/sec-warns-of-ai-celebrity-scam-in-nigeria/), la Comisión de Bolsa y Valores de Nigeria emitió un comunicado advirtiendo al público sobre el uso de IA para crear deepfakes de personalidades populares con el fin de llevar a cabo actos ilícitos. Los estafadores crean vídeos deepfakes para solicitar fondos, mientras que otros los utilizan para anunciar oportunidades de inversión falsas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd