Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 492: Padres canadienses engañados por la voz de inteligencia artificial de su hijo

Traducido por IA
Descripción:
Traducido por IA
Dos residentes canadienses fueron estafados por una persona que llamó anónimamente y utilizó síntesis de voz con inteligencia artificial para replicar la voz de su hijo pidiéndoles honorarios legales, haciéndose pasar por su abogado.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por unknown, perjudicó a Ben Perkin's parents y Perkins family.

Estadísticas de incidentes

ID
492
Cantidad de informes
7
Fecha del Incidente
2023-01-11
Editores
Khoa Lam
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

+1
TikTok: @benno56
+1
Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.
+3
Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo
TikTok: @benno56

TikTok: @benno56

tiktok.com

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.

washingtonpost.com

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.

fortune.com

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo

businessinsider.com

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos

androidauthority.com

Perder miles de dólares porque AI falsifica la voz de un ser querido

Perder miles de dólares porque AI falsifica la voz de un ser querido

vnexpress.net

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel

futurism.com

TikTok: @benno56
tiktok.com · 2023
Traducido por IA

#chatgpt #ai [#scam](https://www.tiktok .com/tag/scam) #estafadores #voiceai #proteger #prevención [#awareness](https://www.tiktok.com/tag/ conciencia) #educación ai y estafadores.

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.
washingtonpost.com · 2023
Traducido por IA

El hombre que llamaba a Ruth Card sonaba igual que su nieto Brandon. Entonces, cuando dijo que estaba en la cárcel, sin billetera ni teléfono celular, y que necesitaba dinero en efectivo para la fianza, Card se apresuró a hacer todo lo posi…

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.
fortune.com · 2023
Traducido por IA

Es muy posible que en un futuro cercano reciba una llamada de un pariente que necesita ayuda urgente y le pida que le envíe dinero rápidamente. Y puede que estés convencido de que son ellos porque, bueno, conoces su voz.

La inteligencia art…

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo
businessinsider.com · 2023
Traducido por IA

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de alguien que decía ser un abogado que decía que su hijo estaba en la cárcel por matar a un diplomático en un accidente automovilístico.

Benj…

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos
androidauthority.com · 2023
Traducido por IA
  • El software de generación de voz AI permite a los estafadores imitar la voz de sus seres queridos.
  • Estas suplantaciones han llevado a que las personas sean estafadas por $ 11 millones por teléfono en 2022.
  • Los ancianos constituyen la mayor…
Perder miles de dólares porque AI falsifica la voz de un ser querido
vnexpress.net · 2023
Traducido por IA

Los padres de Benjamin Perkin (Canadá) recibieron una llamada de su hijo, que en realidad era una IA falsa, diciendo que estaba detenido y necesitaba $ 15,000 con urgencia.

La pesadilla de la familia de Perkin, de 39 años, comenzó cuando un…

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel
futurism.com · 2023
Traducido por IA

Sacar de apuro

Los estafadores despiadados siempre están buscando la próxima gran estafa, y es posible que la hayan encontrado: usar IA para imitar a sus seres queridos por teléfono.

Cuando Ruth Card, de 73 años, escuchó lo que pensó que er…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Security Robot Rolls Over Child in Mall

Jul 2016 · 27 informes
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Security Robot Rolls Over Child in Mall

Jul 2016 · 27 informes
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178