Incidentes Asociados
Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de alguien que decía ser un abogado que decía que su hijo estaba en la cárcel por matar a un diplomático en un accidente automovilístico.
Benjamin Perkin [le dijo a The Washington Post] (https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/) la persona que llamó puso una voz generada por IA que sonaba como él en el teléfono con sus padres para pedir dinero. El presunto abogado volvió a llamar a sus padres después de la llamada inicial y les dijo que Perkin necesitaba $21,000 para los honorarios legales antes de ir a la corte.
Perkin le dijo al Post que la voz estaba "lo suficientemente cerca como para que mis padres realmente creyeran que hablaron conmigo".
Sus padres recolectaron el efectivo y enviaron dinero al estafador a través de Bitcoin, dijo Perkin, pero luego admitieron que pensaron que la llamada telefónica sonó extraña. Se dieron cuenta de que habían sido estafados después de que Perkin llamara para registrarse más tarde esa noche.
Perkin no respondió de inmediato a un contacto de Insider para discutir lo que sucedió.
Le dijo al Post que su familia presentó un informe policial ante las autoridades canadienses, pero que "el dinero se fue. No hay seguro. No hay forma de recuperarlo".
The Post informó que aunque Perkin no sabe cómo los estafadores encontraron su voz, ha publicado videos sobre motos de nieve en YouTube.
El surgimiento de herramientas de inteligencia artificial más potentes coincide con un aumento de las estafas que involucran a personas que se hacen pasar por otras personas. La estafa denunciada con más frecuencia el año pasado fueron las estafas de impostores, según descubrió la [Comisión Federal de Comercio](https://www.ftc.gov/news-events/news/press-releases/2023/02/new-ftc-data-show -consumidores-reportaron-perder-casi-88-mil millones-estafas-2022). La FTC vio informes de fraude de 2.4 millones de personas en 2022, que fue menor que en 2021. Sin embargo, la cantidad de dinero perdido fue mayor, con $ 8.8 mil millones perdidos.
Las estafas que involucran tecnología de IA son anteriores al surgimiento de ChatGPT y otros bots de IA que se están volviendo virales en este momento . En 2019, el director gerente de una compañía de energía británica supuestamente [transfirió más de $240,000](https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software- supuestamente-usó-un-robo-importante/) a una cuenta en Hungría después de que pensó que su jefe le había pedido que lo hiciera en una llamada telefónica.
En enero, ElevenLabs, un laboratorio de investigación que explora la clonación de voz y herramientas para el habla sintética, compartió un hilo de Twitter dirigiéndose a personas que "usan nuestra tecnología para fines maliciosos".
La startup tuiteó que lanzaría una herramienta para permitir que las personas verifiquen si una muestra de audio se realizó con la tecnología de la empresa, y que su VoiceLab solo sería [accesible pagando] (https://twitter.com/elevenlabsio/status/1620443209397858305 ?s=20).
Un día antes de escribir el hilo, ElevenLabs tuiteó que estaba al tanto de "un número creciente de casos de uso indebido de clonación de voz", después de lanzar su Beta plataforma.
Placa base encontrada que los miembros del sitio anónimo, 4chan, estaban usando la tecnología de ElevenLabs para generar voces que suenan como celebridades para decir cosas racistas e inapropiadas.
La FTC ha creado una nueva Oficina de Tecnología para investigar los usos potenciales de AI que las empresas están prometiendo, y para ver si las empresas están mitigando los riesgos que pueden causar sus productos.
"También nos preocupa el riesgo de que los deepfakes y otros medios sintéticos basados en IA, que son cada vez más fáciles de crear y difundir, se utilicen para el fraude", dijo Juliana Gruenwald, portavoz de la FTC, a Insider (https://www. .businessinsider.com/chatbot-ftc-chatgpt-hype-scam-fraud-ai-artificial-intelligence-2023-3).
Gruenwald también le dijo a Insider que la FTC "ya ha visto un aumento asombroso en el fraude en las redes sociales".
"Las herramientas de IA que generan videos, fotos, audio y texto que parecen auténticos podrían impulsar esta tendencia, permitiendo a los estafadores un mayor alcance y velocidad", dijo.