Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4360

Incidentes Asociados

Incidente 8641 Reporte
Generative AI Allegedly Used to Facilitate $255,000 Real Estate Fraud Scheme

Loading...
La última estafa inmobiliaria: usar inteligencia artificial para hacerse pasar por su agente o prestamista
washingtonpost.com · 2024

Se acercaba la fecha de cierre de la nueva casa de Raegan Bartlo en West Virginia, por lo que no se sorprendió al recibir un correo electrónico el 23 de agosto que parecía ser del abogado de la compañía de títulos con instrucciones para transferir un pago inicial de $255,000.

Envió el dinero a la cuenta que figuraba en el correo electrónico, suponiendo que todo estaba bien con su mudanza planeada desde Alexandria, Virginia. Dos días después, se enteró de que en realidad había transferido los fondos a un estafador.

Cree que el correo electrónico fraudulento fue escrito por un programa informático impulsado por inteligencia artificial.

"Fue aterrador. Te sientes violada. Pensé que lo habíamos perdido todo", dijo Bartlo, quien anteriormente trabajó en cuestiones de ciberseguridad en el Centro de Análisis y Resiliencia para el Riesgo Sistémico, donde aprendió a reconocer las características distintivas del correo electrónico de un estafador.

Este, dijo, era diferente, con un tono conversacional pero profesional y sin señales de alerta gramaticales, características que los expertos en ciberseguridad dicen que son típicas del texto generado por IA.

En todo el país, los funcionarios de ciberseguridad afirman que los estafadores están utilizando programas de inteligencia artificial generativa para hacerse pasar por agentes inmobiliarios, prestamistas u otras partes en una venta de viviendas, imitando su estilo de escritura en correos electrónicos o su voz en mensajes de voz para indicar a los destinatarios desprevenidos que transfieran fondos a cuentas controladas por los estafadores.

Estos esquemas son "casi un crimen perfecto", dijo Tom Cronkright, cofundador y presidente ejecutivo de CertifID, una empresa de prevención de fraudes electrónicos en el sector inmobiliario. Hay enormes sumas de dinero en juego y los compradores a menudo quieren actuar rápidamente en un mercado inmobiliario difícil.

Como la mayoría de los compradores y vendedores no tienen mucha experiencia con estas transacciones, dijo, generalmente seguirán las instrucciones de sus agentes, prestamistas y compañías de títulos, o de personas que se hacen pasar por ellos.

"Si le agregas una IA generativa a todo esto, piensas: 'Mi agente me llamó, recibí este mensaje de voz, leí este correo electrónico y, sí, lo envié por cable, porque estoy tan cansado de este proceso que haré lo que sea para asegurarme de que se cierre'", dijo Cronkright.

Durante una entrevista telefónica, Cronkright grabó 13 segundos de la voz de un periodista y luego utilizó un programa de IA para que un clon de voz se hiciera pasar por un agente inmobiliario y le indicara a un cliente que hiciera una transferencia bancaria. También escribió un mensaje rápido para crear un correo electrónico escrito por IA con instrucciones para la transferencia bancaria, en un tono mayormente formal pero con un chiste de golf incluido por si acaso.

Matt O'Neill, exjefe de la unidad del Servicio Secreto de Estados Unidos que investiga los delitos cibernéticos, dijo que se encontró por primera vez con este tipo de estafa "casi el día después de que se lanzara ChatGPT" a fines de 2022.

Los estafadores pueden usar diferentes técnicas, como piratear cuentas y suplantar a profesionales del sector inmobiliario para obtener detalles de transacciones, con el fin de obtener la información necesaria para llevar a cabo sus estafas. También pueden usar información disponible públicamente de bases de datos y listados de bienes raíces para agregar detalles persuasivos a sus correos electrónicos fraudulentos, por ejemplo, el color de la pintura del dormitorio principal, dijo O'Neill.

Los programas de inteligencia artificial gratuitos como ChatGPT, dijo O'Neill, permiten a los estafadores escribir mejores correos electrónicos de phishing, mensajes que engañan a los destinatarios para que hagan clic en un enlace o archivo adjunto. "Reduce el nivel de exigencia para los malos actores que ya habían estado en el juego antes, porque no necesitan habilidades avanzadas", dijo.

Dos funcionarios del FBI con experiencia en delitos complejos de fraude financiero y cibernético dijeron que han visto un aumento en los casos de fraude inmobiliario que involucran inteligencia artificial.

Anteriormente, dijo uno de los funcionarios, los correos electrónicos y mensajes de texto fraudulentos a menudo eran escritos por personas que no tenían un buen dominio del inglés, lo que hacía que el tono fuera demasiado formal o informal o que diera lugar a oraciones con errores gramaticales y redacción incómoda.

Ahora, dijo el funcionario, "pedirle a un programa de IA generativa que elabore un correo electrónico en tono comercial que pueda convencer a una persona de que hubo un problema con su cierre y que necesita cambiar su cuenta bancaria es realmente fácil de generar, y el software puede escribirlo en segundos".

El FBI no tiene datos sobre estafas de vivienda que involucran IA, dijo el funcionario, porque el uso de IA en sí no es ilegal y porque es difícil probar que se utilizó IA en un caso específico.

Pero a principios de este mes, el FBI emitió un anuncio de servicio público advirtiendo sobre el uso creciente de IA en esquemas de fraude para generar texto, audio, video y otras comunicaciones persuasivas. Eso siguió a una alerta del mes pasado de la Red de Ejecución de Delitos Financieros (FinCEN) del Departamento del Tesoro sobre un aumento reciente de "deepfakes" generados por IA dirigidos a instituciones financieras.

En 2023, el FBI recibió 21.489 denuncias de "compromiso de correo electrónico comercial" (estafas de correo electrónico que implican transferencias fraudulentas de fondos) por un total de más de 2.900 millones de dólares, según el informe anual sobre delitos en Internet de la agencia. En cuanto a los delitos cibernéticos en general, D.C. tuvo más denuncias y pérdidas per cápita que cualquier estado. Maryland y Virginia se encontraban en la mitad superior de los estados. (El informe no enumera datos a nivel estatal sobre esquemas de compromiso de correo electrónico comercial específicamente).

Es imposible para Bartlo y otras víctimas de estafas saber con certeza si sus estafadores utilizaron IA. Pero su experiencia en ciberseguridad le enseñó a reconocer un correo electrónico de phishing escrito por humanos. El correo electrónico de su estafador, dijo, no se leía como uno.

"Francamente, nunca se me pasó por la cabeza", dijo sobre la posibilidad de que el remitente no fuera realmente el abogado de la compañía de títulos. "La forma en que lo hizo la persona... fue realmente, realmente buena". Más tarde, descubrió que había un dígito incorrecto en el número de fax de la firma del correo electrónico.

Bartlo y su marido, Michael, finalmente pudieron recuperar más de la mitad de su dinero con la cooperación de los bancos de ambos lados de la transacción. Pero la pareja aún perdió más de $112,000, lo que los obligó a echar mano de sus ahorros de jubilación antes de poder hacerlo sin penalizaciones fiscales.

"Sigo pagando por este criminal, y el criminal se sale con la suya con todo lo que quiere", dijo Bartlo, de 49 años.

Pero el incidente no les impidió comprar la casa en la comunidad Bunker Hill de West Virginia, cerca de la frontera con Virginia, donde los pagos de la hipoteca y el costo de vida son mucho menores que los que enfrentaban en Alexandria.

Los Bartlo y sus perros afuera de su nuevo hogar en la comunidad Bunker Hill de West Virginia, cerca de la frontera con Virginia. (Ricky Carioti/The Washington Post)

"Es hermosa", dijo Bartlo sobre su nuevo hogar.

Tres días antes de que finalmente cerraran el trato por la casa, Bartlo recibió un correo electrónico casi idéntico al primero.

Nuevamente, era cortés y profesional, y parecía escrito por el abogado de la compañía de títulos. Y, nuevamente, el mensaje le pedía que depositara dinero en una cuenta bancaria.

Esta vez, dijo Bartlo, no cayó en la trampa.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd