Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5173

Incidentes Asociados

Incidente 10651 Reporte
Scammers Allegedly Use AI-Generated Avatars to Impersonate Friends in Houston, Texas and Solicit Money

Loading...
Mujeres de Houston estafadas por videos deepfake generados por IA
fox26houston.com · 2024

HOUSTON - Llevamos un tiempo advirtiéndoles que los estafadores pueden usar Inteligencia Artificial para crear videos falsos y estafar a la gente. Pero, ¿podrías identificar un video deepfake si se parece a uno de tus amigos?

Dos mujeres del área de Houston afirman haber sido estafadas con videos de sus amigas generados por IA. Luego, sus imágenes se usaron para crear deepfakes y estafar a otros.

"Es una locura. Me molestó un poco", dijo Stacey Svegliato.

Stacey dice que recibió una videollamada en Messenger de quien parecía y sonaba como su amiga, Sara Sandlin.

"Era ella hablándome, y la conversación iba y venía, y lo único que pude entender fue: 'Oye, me han hackeado el Facebook'", dijo Stacey. Stacey dice que recibió un código de acceso en su teléfono y se lo envió. Luego apareció una publicación en su página de Facebook, donde supuestamente vendía los vehículos, electrodomésticos y muebles de su padre. Stacey cuenta que sus amigos empezaron a recibir mensajes de video que se parecían y sonaban igual que ella, intentando vender los artículos.

"Tengo una voz muy particular, así que cuando la gente dice que me están hablando, da miedo", dijo Stacey.

Resulta que Sara Sandlin también acababa de recibir un mensaje de video que se parecía y sonaba como alguien que conocía.

"Era su cara. Había saludado con la mano, estaba sonriendo, incluso se echó el pelo hacia atrás", dijo Sara al describir el video.

A Sara también la engañaron para que enviara un código de acceso, se publicaron artículos a la venta en su página de Facebook y se envió un video de ella generado por IA a sus amigos.

"La gente pensó que era yo. Algunos cayeron en la trampa, otros no", dijo Sara.

Ella dice que algunos de sus amigos reportaron haber enviado cientos de dólares por artículos en venta al remitente del video, sin darse cuenta de que no era Sara.

El experto en ciberseguridad Dominic Chorafakis, de Akouto Consulting, afirma que los estafadores están copiando videos publicados en línea para crear avatares generados por IA que se ven y suenan tan parecidos a la persona real que pueden engañar a quienes la conocen bien.

"Incluso puedes usar una foto de la persona y la sincronización de labios se encargará del resto. No necesitas segmentos de video largos, incluso una imagen fija servirá", dijo Chorafakis.

Para mostrarles cómo funciona esto, grabé un video mío hablando, lo subí a una herramienta de IA en línea y escribí un guion para mi avatar.

"Este es un video mío generado por IA. ¿Puedes diferenciar la IA de la persona real?", dijo mi avatar a la cámara en el video, luciendo y sonando como yo. Si teme que un estafador pueda crear un video deepfake suyo, Chorafakis sugiere tomar medidas para protegerse.

"Primero, limite lo que publica. Y use las funciones de seguridad de la plataforma, restringiendo el acceso a este contenido para que no esté disponible solo para el público", dijo Chorafakis.

A Sara y Stacey les preocupa que los estafadores sigan usando sus avatares.

"Al igual que mi amiga Sara, la estaban usando para intentar sacarle el dinero que necesitaba, y ni siquiera era ella. Así que pensé: '¡Caramba! Espero que no empiecen eso conmigo'", dijo Stacey.

Nos comunicamos con Facebook sobre esta estafa. No recibimos respuesta.

Para protegerse, los expertos recomiendan:

  • Mantenga sus perfiles de redes sociales privados y limite lo que publica sobre usted.
  • Nunca comparta una clave de acceso con nadie.
  • Use contraseñas complejas y autenticación multifactor para proteger sus cuentas digitales.

Stacey y Sara perdieron sus cuentas de Facebook y el acceso a sus valiosas fotos familiares. Por eso, es buena idea hacer una copia de seguridad de las fotos o videos que quieras conservar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd