Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5335

Incidentes Asociados

Incidente 11057 Reportes
Michigan Woman Defrauded in Alleged Tinder Romance Scam Using Purportedly AI-Generated Video Calls

Loading...
Tinder se desata: la calidad de los videos deepfake alimenta las estafas románticas
timeslive.co.za · 2025

Beth Hyland creyó haber conocido al amor de su vida en Tinder.

En realidad, la asistente administrativa de Michigan había sido manipulada por un estafador en línea que se hizo pasar por un francés llamado "Richard", usó videos deepfake en llamadas de Skype y publicó fotos de otro hombre para llevar a cabo su estafa.

Un "deepfake" es un video o audio manipulado, creado con inteligencia artificial (IA) para que parezca y suene real. Suelen ser difíciles de detectar sin herramientas especializadas.

En cuestión de meses, Hyland, de 53 años, había solicitado préstamos por un total de $26,000, le había enviado el dinero a "Richard" y había caído víctima de un clásico caso de engaño romántico.

Se proyecta que 8 millones de deepfakes se compartirán en todo el mundo en 2025, frente a los 500,000 de 2023, según el gobierno británico. Aproximadamente una quinta parte de ellos formarán parte de estafas románticas, según un informe de enero de la empresa de ciberseguridad McAfee.

"Es como llorar una muerte", declaró Hyland a la Fundación Thomson Reuters.

"Cuando lo vi en video, era igual a las fotos que me había estado enviando. Se veía un poco borroso, pero no sabía nada de los deepfakes", dijo.

Manipulación y mentiras

Hyland vive en Portage, a unos 230 km al oeste de Detroit, y llevaba cuatro años divorciada cuando volvió a salir con alguien.

Conectó en Tinder con un hombre cuyo perfil parecía encajar bien con el suyo.

Ahora, afirma que esta "pareja perfecta" probablemente fue orquestada.

"Richard" dijo que nació en París, pero vivía en Indiana y trabajaba como gerente de proyectos independiente para una empresa constructora, lo que requería muchos viajes, incluso a Catar.

Siguieron meses de manipulación emocional, mentiras, fotos falsas y llamadas de Skype manipuladas por IA. El estafador le prometió su amor eterno, pero tenía innumerables razones para faltar a cada posible encuentro.

Semanas después de que se emparejaran, "Richard" convenció a Hyland de que necesitaba su ayuda para pagar un abogado y un traductor en Catar.

"Le dije que iba a pedir préstamos y se puso a llorar, diciéndome que nadie lo había amado así", contó Hyland en una entrevista en línea.

Pero "Richard" seguía pidiendo más dinero y, cuando Hyland finalmente le contó a su asesor financiero lo que estaba sucediendo, este le dijo que probablemente era víctima de una estafa romántica.

"No podía creerlo, pero no podía ignorarlo", dijo Hyland.

Se enfrentó a "Richard"; él inicialmente lo negó todo, pero luego guardó silencio cuando Hyland le pidió que "le demostrara que estaba equivocada" y le devolviera el dinero.

La policía le dijo a Hyland que no podían llevar el caso más allá porque no hubo "coerción, amenaza ni fuerza", según una carta del director de seguridad pública de Portage, a la que tuvo acceso la Fundación Thomson Reuters.

La oficina de seguridad pública, que supervisa tanto a la policía como a los bomberos, no respondió a una solicitud de comentarios.

En un correo electrónico enviado a Hyland después de que reportara la cuenta del estafador a Tinder, al que tuvo acceso la Fundación Thomson Reuters, la compañía afirmó que elimina a los usuarios que violan sus términos de servicio o directrices.

Si bien Tinder indicó que no podía compartir el resultado de la investigación por razones de privacidad, indicó que el informe de Hyland fue "evaluado" y "se tomaron medidas de acuerdo con nuestras políticas".

Un portavoz de Tinder afirmó que la compañía tiene "tolerancia cero" con los estafadores y utiliza inteligencia artificial para identificar a posibles estafadores y advertir a sus usuarios, además de ofrecer hojas informativas sobre estafas románticas.

En marzo, Hyland asistió a una audiencia de un comité del Senado de EE. UU. donde se presentó un proyecto de ley que exige que las aplicaciones de citas eliminen a los estafadores y notifiquen a los usuarios que interactúan con cuentas falsas.

El senador que propuso el proyecto de ley afirmó que la historia de Hyland demostraba por qué era necesaria la legislación.

En general, las aplicaciones de citas no notifican a los usuarios que se han comunicado con un estafador una vez que su cuenta ha sido eliminada ni emiten alertas sobre cómo evitar ser estafados, como exige el nuevo proyecto de ley.

Microsoft, propietaria de Skype, dirigió a la Fundación Thomson Reuters a publicaciones de blog que informaban a los usuarios sobre cómo prevenir las estafas románticas y las medidas que había tomado para abordar el contenido generado por IA, como añadir marcas de agua a las imágenes. La compañía no ofreció más comentarios.

Jason Lane-Sellers, director de fraude e identidad de LexisNexis Risk Solutions, afirmó que solo se denuncia el 7 % de las estafas, y que las víctimas a menudo se ven frenadas por la vergüenza.

'Carrera armamentística de la IA'

Jorij Abraham, director general de la Alianza Global Antiestafa, una organización con sede en los Países Bajos para la protección de los consumidores, afirmó que los humanos no podrán detectar los medios manipulados durante mucho tiempo.

"En dos o tres años, será una IA contra IA", afirmó.

Existe software que puede seguir tu conversación —mirando los ojos, si parpadean—; estos son indicios de que algo está sucediendo que los humanos no pueden ver, pero el software sí.

Lane-Sellers, de LexisNexis Risk Solutions, lo describió como una "carrera armamentística" de IA entre estafadores y empresas antifraude que intentan proteger a consumidores y empresas.

Richard Whittle, experto en IA de la Salford Business School, en el norte de Inglaterra, afirmó que espera que la futura tecnología de detección de deepfakes sea integrada por fabricantes de hardware como Apple, Google y Microsoft, que pueden acceder a las cámaras web de los usuarios.

Ni Apple ni Google respondieron a las solicitudes de comentarios sobre cómo protegen a los consumidores contra los deepfakes ni sobre futuros desarrollos de productos.

Abraham afirmó que el verdadero reto era atrapar a los estafadores, que a menudo trabajan en países diferentes a los que atacan.

A pesar de su impasse, Hyland sigue creyendo que es bueno denunciar las estafas y ayudar a las autoridades a combatirlas. Y quiere que las víctimas de las estafas sepan que no es su culpa.

He aprendido terminología... no perdemos [dinero] ni lo regalamos; es robado. No caemos en estafas; somos manipulados y victimizados.

Fundación Thomson Reuters

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd