Incidentes Asociados

Sacar de apuro
Los estafadores despiadados siempre están buscando la próxima gran estafa, y es posible que la hayan encontrado: usar IA para imitar a sus seres queridos por teléfono.
Cuando Ruth Card, de 73 años, escuchó lo que pensó que era la voz de su nieto Brandon al otro lado de la línea diciendo que necesitaba dinero para la fianza, ella y su esposo corrieron al banco.
"Definitivamente fue este sentimiento de... miedo", dijo Card a The Washington Post. "Que tenemos que ayudarlo ahora mismo".
La pareja retiró el máximo de 3.000 dólares canadienses en un banco y fue a otro por más. Afortunadamente, un gerente de banco vigilante los llamó y les advirtió que otro cliente había recibido una llamada telefónica similar que sonaba como si fuera de un ser querido, pero resultó que la voz había sido falsa.
"Fuimos absorbidos", dijo Card. "Estábamos convencidos de que estábamos hablando con Brandon".
Problemas legales
No todos tuvieron la misma suerte. Benjamin Perkin, de 39 años, le contó a WaPo cómo sus padres ancianos fueron estafados con miles de dólares con la ayuda de un imitador de IA.
Los padres de Perkin habían recibido una llamada telefónica de un abogado, quien afirmaba que su hijo mató a un diplomático estadounidense en un accidente automovilístico y necesitaba dinero para los honorarios legales. El aparente abogado luego dejó que Perkin hablara por teléfono, y la voz sonó como la de él.
Esto los convenció. Cuando el abogado volvió a llamar más tarde para pedir $21 000 CAD, sus padres fueron al banco y enviaron el dinero a través de BitCoin.
"El dinero se fue", dijo Perkin al periódico. "No hay seguro. No hay forma de recuperarlo. Se ha ido".
Recolecciones fáciles
Las estafas de clonación de voz han sido una amenaza [desde hace varios años] (https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used- hurto mayor/). Pero la creciente ubicuidad de la IA poderosa y fácil de usar significa que el potencial de abuso de la tecnología supera fácilmente la capacidad de un público involuntario para mantenerse al día con los trucos de los malos actores, sin darse cuenta de que ya podrían estar apuntando a ellos.
"Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona", dijo a WaPo Hany Farid, profesor de medicina forense en UC Berkeley. "Ahora... si tienes una página de Facebook... o si has grabado un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz".
Por ejemplo, ElevenLabs, cuyo servicio de síntesis de voz con IA cuesta tan solo $5 por mes, y puede producir resultados tan convincentes que un periodista lo usó [para entrar en su propia cuenta bancaria] (https://futurism.com/the-byte/journalist -clones-voz-romper-en-banco). Incluso generó todo un género de [memes que se hacen pasar por el presidente Joe Biden] (https://futurism.com/the-byte/voice-cloned-joe-biden-speeches). La clonación de voz de ElevenLabs solo ha existido desde 2022. Imagine el daño que podría causar, y los competidores que buscan aprovechar su éxito, en solo unos años más.