Incidentes Asociados

- El software de generación de voz AI permite a los estafadores imitar la voz de sus seres queridos.
- Estas suplantaciones han llevado a que las personas sean estafadas por $ 11 millones por teléfono en 2022.
- Los ancianos constituyen la mayoría de los objetivos.
La IA ha sido un tema central en el mundo de la tecnología desde hace un tiempo, ya que Microsoft continúa incorporando a sus productos ChatGPT y Google intenta mantenerse al día impulsando sus propios productos de IA. Si bien la IA tiene el potencial de hacer cosas realmente impresionantes, como generar imágenes basadas en una sola línea de texto, estamos comenzando a ver más desventajas de la tecnología apenas regulada. El último ejemplo de esto son los generadores de voz de IA que se utilizan para estafar a las personas con su dinero.
El software de generación de voz AI ha estado en muchos titulares últimamente, principalmente por robar las voces de los actores de voz. Inicialmente, todo lo que se requería eran unas pocas oraciones para que el software reprodujera de manera convincente el sonido y el tono del altavoz. Desde entonces, la tecnología ha evolucionado hasta el punto en que solo unos segundos de diálogo son suficientes para imitar con precisión a alguien.
En un nuevo informe de The Washington Post, miles de víctimas afirman que han sido engañadas por impostores. haciéndose pasar por seres queridos. Según se informa, las estafas de impostores se han convertido en el segundo tipo de fraude más popular en los Estados Unidos, con más de 36 000 casos presentados en 2022. De esos 36 000 casos, más de 5000 víctimas fueron estafadas por teléfono, con un total de $11 millones en pérdidas, según funcionarios de la FTC. .
Una historia que se destacó fue la de una pareja de ancianos que envió más de $ 15,000 a través de una terminal de bitcoin a un estafador después de creer que habían hablado con su hijo. La voz de AI había convencido a la pareja de que su hijo estaba en problemas legales después de matar a un diplomático estadounidense en un accidente automovilístico.
Al igual que con las víctimas de la historia, estos ataques parecen estar dirigidos principalmente a los ancianos. Esto no sorprende, ya que los ancianos se encuentran entre los más vulnerables cuando se trata de estafas financieras. Desafortunadamente, los tribunales aún no han tomado una decisión sobre si las empresas pueden ser consideradas responsables por los daños causados por los generadores de voz de IA u otras formas de tecnología de IA.