Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5330

Incidentes Asociados

Incidente 11057 Reportes
Michigan Woman Defrauded in Alleged Tinder Romance Scam Using Purportedly AI-Generated Video Calls

Loading...
Una estafa de romance deepfake deja a una mujer con una deuda de $26,000
menafn.com · 2025

Beth Hyland creyó haber conocido al amor de su vida en Tinder.

En realidad, la asistente administrativa de Michigan había sido manipulada por un estafador en línea que se hizo pasar por un francés llamado "Richard", usó videos deepfake en llamadas de Skype y publicó fotos de otro hombre para llevar a cabo su estafa.

Un deepfake es un video o audio manipulado, creado con inteligencia artificial (IA) para parecer y sonar real. Suelen ser difíciles de detectar sin herramientas especializadas.

En cuestión de meses, Hyland, de 53 años, había solicitado préstamos por un total de 26.000 dólares (95.497 dirhams), le había enviado el dinero a «Richard» y había caído víctima de un caso clásico de engaño romántico.

Se estima que en 2025 se compartirán ocho millones de deepfakes en todo el mundo, frente a los 500.000 de 2023, según el gobierno británico.

Aproximadamente una quinta parte de ellos formarán parte de estafas románticas, según un informe de enero de la empresa de ciberseguridad McAfee.

"Es como llorar una muerte", dijo Hyland. Cuando lo vi en video, era igual a las fotos que me había estado enviando. Se veía un poco borroso, pero no sabía nada de deepfakes.

Manipulación y mentiras

Hyland vive en Portage, a unos 230 km al oeste de Detroit, y llevaba cuatro años divorciada cuando volvió a salir con alguien.

Conoció en Tinder a un hombre cuyo perfil parecía encajar bien con el suyo.

Ahora, dice que esta "pareja perfecta" probablemente fue orquestada.

"Richard" dijo que nació en París, pero vivía en Indiana y trabajaba como gerente de proyectos independiente para una empresa de construcción que requería muchos viajes, incluso a Catar.

Le siguieron meses de manipulación emocional, mentiras, fotos falsas y llamadas de Skype manipuladas por IA. El estafador le prometió su amor eterno, pero tenía innumerables razones para perderse cada posible encuentro.

Semanas después de que coincidieran, 'Richard' convenció a Hyland de que necesitaba su ayuda para pagar un abogado y un traductor en Catar.

"Le dije que iba a pedir préstamos y se puso a llorar, diciéndome que nadie lo había amado así", contó Hyland en una entrevista en línea.

Pero 'Richard' seguía pidiendo más dinero y cuando Hyland finalmente le contó a su asesor financiero lo que estaba sucediendo, este le dijo que probablemente era víctima de una estafa romántica.

"No podía creerlo, pero no podía ignorarlo", dijo Hyland.

Confrontó a 'Richard'; Inicialmente lo negó todo, pero guardó silencio cuando Hyland le pidió que "demostrara que estaba equivocada" y le devolviera el dinero.

La policía le comunicó a Hyland que no podían llevar el caso más allá porque no hubo "coerción, amenaza ni fuerza", según una carta del director de seguridad pública de Portage, a la que tuvo acceso la Fundación Thomson Reuters.

La oficina de seguridad pública, que supervisa tanto a la policía como a los bomberos, no respondió a una solicitud de comentarios.

En un correo electrónico enviado a Hyland después de que denunciara la cuenta del estafador en Tinder, al que tuvo acceso la Fundación Thomson Reuters, la compañía afirmó que elimina a los usuarios que violan sus términos de servicio o directrices.

Si bien Tinder indicó que no podía compartir el resultado de la investigación por motivos de privacidad, indicó que el informe de Hyland fue "evaluado" y "se tomaron medidas de acuerdo con nuestras políticas".

Un portavoz de Tinder afirmó que la compañía tiene "tolerancia cero" con los estafadores y utiliza inteligencia artificial para erradicar a los posibles estafadores y advertir a sus usuarios. También ofrece hojas informativas sobre estafas románticas.

En marzo, Hyland asistió a una audiencia de un comité del Senado de EE. UU. donde se presentó un proyecto de ley que exige que las aplicaciones de citas eliminen a los estafadores y notifiquen a los usuarios que interactúan con cuentas falsas.

El senador que propuso el proyecto de ley afirmó que la historia de Hyland demostraba la necesidad de la legislación.

En general, las aplicaciones de citas no notifican a los usuarios que se han comunicado con un estafador una vez que se ha eliminado su cuenta ni emiten alertas sobre cómo evitar ser estafados, como exige el nuevo proyecto de ley.

EE. UU. reportó más de 4 mil millones de dólares en pérdidas por estafas románticas en 2023, según el FBI.

Microsoft, propietaria de Skype, dirigió a la Fundación Thomson Reuters a publicaciones de blog que informaban a los usuarios sobre cómo prevenir las estafas románticas y las medidas que había tomado para abordar el contenido generado por IA, como la adición de marcas de agua a las imágenes.

La compañía no ofreció más comentarios.

Jason Lane-Sellers, director de fraude e identidad de LexisNexis Risk Solutions, declaró: Solo el 7% de las estafas se denuncian, y las víctimas a menudo se ven frenada por la vergüenza.

'Carrera armamentística de la IA'

Jorij Abraham, director general de la Alianza Global Antiestafa, una organización con sede en los Países Bajos que protege a los consumidores, afirmó que los humanos no podrán detectar contenido manipulado durante mucho tiempo.

"En dos o tres años, será una IA contra IA", afirmó.

"[Existe software] que puede seguir tu conversación —mirando a los ojos, si parpadean—; estos son indicios de que algo está sucediendo que los humanos no pueden ver, pero el software sí".

Lane-Sellers, de LexisNexis Risk Solutions, lo describió como una "carrera armamentística" de la IA entre estafadores y empresas antifraude que intentan proteger a consumidores y empresas.

Richard Whittle, experto en IA de la Salford Business School, en el norte de Inglaterra, afirmó que espera que la futura tecnología de detección de deepfakes sea integrada por fabricantes de hardware como Apple, Google y Microsoft, que podrán acceder a las cámaras web de los usuarios.

Ni Apple ni Google respondieron a las solicitudes de comentarios. sobre cómo protegen a los consumidores contra las deepfakes o sobre futuros desarrollos de productos.

Abraham afirmó que el verdadero desafío era atrapar a los estafadores, quienes a menudo trabajan en países diferentes a los que se dirigen.

A pesar de su fracaso, Hyland sigue creyendo que es bueno denunciar las estafas y ayudar a las autoridades a combatirlas.

Y quiere que las víctimas de estafas sepan que no es su culpa.

"He aprendido la terminología... no perdemos (dinero) ni lo regalamos; es robado. No caemos en las estafas; somos manipulados y victimizados".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd