Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 872: AI Voice Cloning of Ari Melber Allegedly Exploited in Scam Targeting Elderly Woman

Descripción: A scammer allegedly impersonated MSNBC anchor Ari Melber using AI-generated voice messages and a fake social media profile to defraud a 73-year-old woman, Patricia Taylor. Over four months, the scammer reportedly manipulated her into believing they were in a relationship, ultimately convincing her to send $20,000.
Editor Notes: Reconstructing the timeline of events: (1) Around May 2024: Patricia Taylor reportedly makes contact with a fake Facebook profile impersonating MSNBC anchor Ari Melber. (2) Approximately between May–September 2024: The scammer reportedly used emotional manipulation and AI-generated voice messages to establish trust and extract $20,000 in funds and gift cards. (3) Early September 2024: Patricia attempts to meet the imposter in New York but is intercepted by a relative during a layover in Portland. (4) Mid-December 2024: The incident is reported publicly.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice synthesis technology developers y Unknown deepfake technology developers developed an AI system deployed by scammers, which harmed Patricia Taylor , Family of Patricia Taylor y Ari Melber.
Sistema de IA presuntamente implicado: Unknown voice cloning technology

Estadísticas de incidentes

ID
872
Cantidad de informes
5
Fecha del Incidente
2024-12-16
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

Mujer de 73 años fue estafada por miles de dólares por persona que se hizo pasar por presentador de MSNBC+4
Una falsa presentadora de televisión estafó a una abuela por 20.000 dólares usando una voz de inteligencia artificial
Mujer de 73 años fue estafada por miles de dólares por persona que se hizo pasar por presentador de MSNBC

Mujer de 73 años fue estafada por miles de dólares por persona que se hizo pasar por presentador de MSNBC

kxii.com

Una falsa presentadora de televisión estafó a una abuela por 20.000 dólares usando una voz de inteligencia artificial

Una falsa presentadora de televisión estafó a una abuela por 20.000 dólares usando una voz de inteligencia artificial

whio.com

Un estafador utilizó inteligencia artificial para convencer a una fan de MSNBC de edad avanzada de que era un presentador de televisión famoso. Casi la secuestra.

Un estafador utilizó inteligencia artificial para convencer a una fan de MSNBC de edad avanzada de que era un presentador de televisión famoso. Casi la secuestra.

latintimes.com

Un estafador se hace pasar por Ari Melber de MSNBC y estafa a un ex empleado de Boeing por 20.000 dólares (hasta el momento)

Un estafador se hace pasar por Ari Melber de MSNBC y estafa a un ex empleado de Boeing por 20.000 dólares (hasta el momento)

boingboing.net

Un estafador que se hace pasar por Ari Melber de MSNBC estafa a una mujer mayor por más de 20.000 dólares, según la policía

Un estafador que se hace pasar por Ari Melber de MSNBC estafa a una mujer mayor por más de 20.000 dólares, según la policía

mediaite.com

Mujer de 73 años fue estafada por miles de dólares por persona que se hizo pasar por presentador de MSNBC
kxii.com · 2024
Traducido por IA

MARYSVILLE, California (KING) – La policía de California está investigando después de que una mujer mayor fue estafada por una persona que ella creía que era un popular presentador de televisión por cable.

La familia Taylor dijo que están a…

Una falsa presentadora de televisión estafó a una abuela por 20.000 dólares usando una voz de inteligencia artificial
whio.com · 2024
Traducido por IA

MARYSVILLE, Washington — Una abuela es víctima de una estafa que involucra a un popular presentador de televisión por cable.

Su familia dice que un hombre que se hace pasar por un presentador de MSNBC ha estafado a la desprevenida anciana p…

Un estafador utilizó inteligencia artificial para convencer a una fan de MSNBC de edad avanzada de que era un presentador de televisión famoso. Casi la secuestra.
latintimes.com · 2024
Traducido por IA

Una mujer de 73 años de California fue engañada para que creyera que estaba en comunicación con un famoso presentador de MSNBC, y el estafador la convenció de que tenía una relación romántica con él, pero casi fue víctima de un plan de secu…

Un estafador se hace pasar por Ari Melber de MSNBC y estafa a un ex empleado de Boeing por 20.000 dólares (hasta el momento)
boingboing.net · 2024
Traducido por IA

Un estafador que se hizo pasar por el presentador de MSNBC Ari Melber supuestamente estafó a una ex empleada de Boeing y de la Universidad de Washington por 20.000 dólares. Y su familia teme que la estafa aún no haya terminado.

Patricia Tay…

Un estafador que se hace pasar por Ari Melber de MSNBC estafa a una mujer mayor por más de 20.000 dólares, según la policía
mediaite.com · 2024
Traducido por IA

La policía del estado de Washington está investigando informes de que un estafador que se hizo pasar por el popular presentador de MSNBC Ari Melber estafó al menos 20.000 dólares a una mujer de 73 años e incluso la convenció de reunirse con…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Teen turned away from roller rink after AI wrongly identifies her as banned troublemaker

Jul 2021 · 3 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa tells 10-year-old girl to touch live plug with penny

Dec 2021 · 3 informes
Amazon Alexa Responding to Environmental Inputs

Top 5 AI Failures From 2017 Which Prove That ‘Perfect AI’ Is Still A Dream

Dec 2015 · 35 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Teen turned away from roller rink after AI wrongly identifies her as banned troublemaker

Jul 2021 · 3 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa tells 10-year-old girl to touch live plug with penny

Dec 2021 · 3 informes
Amazon Alexa Responding to Environmental Inputs

Top 5 AI Failures From 2017 Which Prove That ‘Perfect AI’ Is Still A Dream

Dec 2015 · 35 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e