Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1065: Estafadores presuntamente usan avatares generados por IA para hacerse pasar por amigos en Houston, Texas y solicitar dinero.

Descripción:
Traducido por IA
Dos mujeres de Houston denunciaron haber sido víctimas de una presunta estafa relacionada con videos generados por IA que parecían mostrar a amigos de confianza. Los supuestos avatares deepfake se utilizaron, según se informa, a través de redes sociales y aplicaciones de mensajería para solicitar códigos de acceso y promover ventas fraudulentas. Se informa que las víctimas perdieron el control de sus cuentas, y los amigos de las personas suplantadas enviaron dinero creyendo que los videos eran auténticos.
Editor Notes: Timeline note: First public report (that was found) appeared on 09/23/2024; underlying scam likely occurred days or weeks earlier. This incident was added to the database on 05/17/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by Unknown scammers y Unknown fraudsters, which harmed Stacey Svegliato , Sara Sandlin , General public y General public in Houston.
Sistemas de IA presuntamente implicados: Unknown deepfake technology , Unknown voice cloning technology y Social media platforms

Estadísticas de incidentes

ID
1065
Cantidad de informes
1
Fecha del Incidente
2024-09-23
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Mujeres de Houston estafadas por videos deepfake generados por IA
Mujeres de Houston estafadas por videos deepfake generados por IA

Mujeres de Houston estafadas por videos deepfake generados por IA

fox26houston.com

Mujeres de Houston estafadas por videos deepfake generados por IA
fox26houston.com · 2024
Traducido por IA

HOUSTON - Llevamos un tiempo advirtiéndoles que los estafadores pueden usar Inteligencia Artificial para crear videos falsos y estafar a la gente. Pero, ¿podrías identificar un video deepfake si se parece a uno de tus amigos?

Dos mujeres de…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Amazon Alexa Responding to Environmental Inputs

Top 5 AI Failures From 2017 Which Prove That ‘Perfect AI’ Is Still A Dream

Dec 2015 · 35 informes
Hackers Break Apple Face ID

Hackers Claim to Break Face ID a Week After iPhone X Release

Sep 2017 · 24 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Amazon Alexa Responding to Environmental Inputs

Top 5 AI Failures From 2017 Which Prove That ‘Perfect AI’ Is Still A Dream

Dec 2015 · 35 informes
Hackers Break Apple Face ID

Hackers Claim to Break Face ID a Week After iPhone X Release

Sep 2017 · 24 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5