Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2847

Incidentes Asociados

Incidente 4927 Reportes
Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Loading...
Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel
futurism.com · 2023

Sacar de apuro

Los estafadores despiadados siempre están buscando la próxima gran estafa, y es posible que la hayan encontrado: usar IA para imitar a sus seres queridos por teléfono.

Cuando Ruth Card, de 73 años, escuchó lo que pensó que era la voz de su nieto Brandon al otro lado de la línea diciendo que necesitaba dinero para la fianza, ella y su esposo corrieron al banco.

"Definitivamente fue este sentimiento de... miedo", dijo Card a The Washington Post. "Que tenemos que ayudarlo ahora mismo".

La pareja retiró el máximo de 3.000 dólares canadienses en un banco y fue a otro por más. Afortunadamente, un gerente de banco vigilante los llamó y les advirtió que otro cliente había recibido una llamada telefónica similar que sonaba como si fuera de un ser querido, pero resultó que la voz había sido falsa.

"Fuimos absorbidos", dijo Card. "Estábamos convencidos de que estábamos hablando con Brandon".

Problemas legales

No todos tuvieron la misma suerte. Benjamin Perkin, de 39 años, le contó a WaPo cómo sus padres ancianos fueron estafados con miles de dólares con la ayuda de un imitador de IA.

Los padres de Perkin habían recibido una llamada telefónica de un abogado, quien afirmaba que su hijo mató a un diplomático estadounidense en un accidente automovilístico y necesitaba dinero para los honorarios legales. El aparente abogado luego dejó que Perkin hablara por teléfono, y la voz sonó como la de él.

Esto los convenció. Cuando el abogado volvió a llamar más tarde para pedir $21 000 CAD, sus padres fueron al banco y enviaron el dinero a través de BitCoin.

"El dinero se fue", dijo Perkin al periódico. "No hay seguro. No hay forma de recuperarlo. Se ha ido".

Recolecciones fáciles

Las estafas de clonación de voz han sido una amenaza [desde hace varios años] (https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used- hurto mayor/). Pero la creciente ubicuidad de la IA poderosa y fácil de usar significa que el potencial de abuso de la tecnología supera fácilmente la capacidad de un público involuntario para mantenerse al día con los trucos de los malos actores, sin darse cuenta de que ya podrían estar apuntando a ellos.

"Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona", dijo a WaPo Hany Farid, profesor de medicina forense en UC Berkeley. "Ahora... si tienes una página de Facebook... o si has grabado un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz".

Por ejemplo, ElevenLabs, cuyo servicio de síntesis de voz con IA cuesta tan solo $5 por mes, y puede producir resultados tan convincentes que un periodista lo usó [para entrar en su propia cuenta bancaria] (https://futurism.com/the-byte/journalist -clones-voz-romper-en-banco). Incluso generó todo un género de [memes que se hacen pasar por el presidente Joe Biden] (https://futurism.com/the-byte/voice-cloned-joe-biden-speeches). La clonación de voz de ElevenLabs solo ha existido desde 2022. Imagine el daño que podría causar, y los competidores que buscan aprovechar su éxito, en solo unos años más.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd