Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2848

Incidentes Asociados

Incidente 4927 Reportes
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Perder miles de dólares porque AI falsifica la voz de un ser querido
vnexpress.net · 2023

Los padres de Benjamin Perkin (Canadá) recibieron una llamada de su hijo, que en realidad era una IA falsa, diciendo que estaba detenido y necesitaba $ 15,000 con urgencia.

La pesadilla de la familia de Perkin, de 39 años, comenzó cuando un hombre que decía ser abogado llamó a sus padres para decirles que había provocado un accidente automovilístico en el que murió un diplomático estadounidense. La persona dijo que Perkin estaba en prisión y necesitaba dinero para los costos legales.

Para aumentar la confiabilidad, esta persona le pasa la máquina a Perkin, que en realidad está conectado al dispositivo de IA de suplantación de voz. En él, "Perkin" dijo que realmente necesitaba dinero y que solo podía confiar en sus padres. "La voz estaba lo suficientemente cerca como para que mis padres creyeran que era yo", dijo Perkin al Washington Post.

Unas horas después, el “abogado” instó a sus padres a transferir el dinero, por lo que fueron al banco a retirar y enviar $15.449 a través de un sistema de conversión a Bitcoin. Sus padres dijeron que tenían la sensación de que la llamada era "algo inusual", pero aun así la siguieron porque pensaron que habían hablado con su hijo. Esa noche, cuando llamó Perkin, todo salió a la luz.

Perkin sospecha que los videos que publica en YouTube son la fuente de audio del estafador de entrenamiento de inteligencia artificial. "Dinero perdido. Sin seguro. Es imposible recuperarlo", dijo.

Asimismo, una mañana, la señora Ruth Card, de 73 años en Regina (Canadá), recibió una llamada de un desconocido. Esta persona dijo que su sobrino, el Sr. Brandon, fue detenido, no tenía un teléfono inteligente para contactar y necesitaba algo de dinero para ser liberado.

"Pasó por mi mente en ese momento que tenía que ayudarlo de inmediato", le dijo al Washington Post.

Ella y su esposo fueron al banco y retiraron $2207, lo máximo que podía retirar todos los días. Ambos tienen la intención de ir al segundo banco para obtener la misma cantidad. Afortunadamente para ellos, el gerente del banco los llamó a ambos a la oficina y les dijo: otro cliente también recibió la misma llamada, también fingió la voz de un familiar con "extraña precisión". Los dos llamaron a su sobrino y era cierto que no lo arrestaron.

"Quedamos atrapados en la historia sin investigarla. En ese momento, estaba segura de que estaba hablando con Brandon sin sospechar", dijo Card.

Las estafas tecnológicas se han disparado en los últimos años, pero la historia de la Sra. Card o Perkin muestra una nueva tendencia preocupante: los delincuentes se están aprovechando de la IA que imita la voz con el propósito de estafar dinero. Esta tecnología es cada vez más barata y de más fácil acceso, provocando un número cada vez mayor de víctimas, dirigidas principalmente a las personas mayores.

Según datos de la Comisión Federal de Comercio de EE. UU. (FTC), en 2022, la suplantación de identidad es la segunda forma de fraude más común en EE. UU. con más de 36.000 denuncias. Los estafadores a menudo se hacen pasar por amigos o familiares para engañar a sus víctimas. Solo el fraude telefónico representó más de 5100 casos, causando más de 11 millones de dólares en daños.

El avance de la IA a lo largo del tiempo se ha desarrollado en muchas áreas, pero también es una herramienta para que la exploten los malos. Con solo una muestra de los sonidos en unas pocas oraciones recopiladas, los delincuentes pueden usar la inteligencia artificial para convertirlos en una copia de la voz de una persona. La herramienta luego "dice" lo que pide y se convierte en el vehículo para el fraude.

Los expertos estiman que las herramientas de inteligencia artificial para falsificar la voz están muy extendidas, pero las agencias reguladoras aún luchan por controlarlas. Mientras tanto, es difícil para la mayoría de las víctimas identificar al culpable porque los estafadores operan en todo el mundo. Las empresas que crean IA aún no son responsables de su abuso.

“Da miedo. Todo crea una tormenta que envía a las víctimas al caos”, dijo el profesor Hany Farid de la Universidad de California. "Los ladrones obligarán a la víctima a reaccionar rápidamente, haciendo que no se calmen lo suficiente para manejar el problema, especialmente cuando se enteran de que un ser querido está en peligro".

Según él, el software IA hoy en día es lo suficientemente inteligente como para analizar la voz de una persona. "Solo una grabación de Facebook, TikTok, su voz se transcribirá en solo 30 segundos", dijo el profesor Farid.

ElevenLabs, la empresa detrás de VoiceLab, la herramienta de inteligencia artificial que reproduce voces, advierte que cada vez hay más software de imitación de voz en el mercado, lo que lleva al abuso.

Mientras tanto, Will Maxson, ahora con la FTC, dijo que rastrear a los estafadores de voz es "particularmente difícil" porque pueden estar en sus teléfonos y en cualquier lugar. Según él, si recibe una llamada de un extraño o de un ser querido que solicita apoyo, los usuarios deben verificar llamando a la persona que tiene el problema, así como llamar a otros miembros de la familia para verificar la información. cree.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd