Problema 2639
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Un nuevo chatbot, similar a ChatGPT, puede convertir texto en voces de celebridades, creando "deepfakes" en el al estilo de Morgan Freedman, Jordan Peterson, Donald Trump y muchos más.
Los usuarios pueden incluso entrenar a NoiseGPT para que imite su propia voz o la de sus amigos, familiares o compañeros de trabajo.
Imagínese recibir un mensaje de voz de feliz cumpleaños de su presidente estadounidense favorito, o una voz más allá de la tumba en forma de John Lennon o Elvis compartiendo información personal con usted, que solo sus familiares más cercanos conocen.
Este es el punto de venta de la aplicación de chatbot más reciente que se lanzará después del muy publicitado lanzamiento del generador de contenido de inteligencia artificial ChatGPT respaldado por Microsoft (MSFT) ChatGPT en noviembre de 2022.
El director de operaciones de NoiseGPT, Frankie Peartree, le dijo a Yahoo Finance UK: "Estamos entrenando a la IA para imitar alrededor de 25 voces de celebridades en este momento, y pronto tendremos más de 100 voces de celebridades para ofrecer".
NoiseGPT se lanzó en Telegram el lunes, lo que permite a los usuarios enviar mensajes de redes sociales a amigos, hablados con la voz de celebridades conocidas.
Peartree dijo que las instrucciones sobre cómo entrenar la aplicación para usar su propia voz pronto estarán disponibles en el sitio web de la compañía.
La aplicación puede ser utilizada por cualquier teléfono inteligente que pueda descargar la aplicación de mensajería social Telegram, lo que mejora su capacidad para lograr una adopción masiva.
La capacidad futura de las aplicaciones de IA de poder imitar su propia voz, la de sus amigos o la de cualquier persona de la que pueda obtener una muestra de voz ha generado preocupaciones, como que los niños reciban mensajes que imitan la voz de sus padres.
El concepto de deepfake no es técnicamente ilegal en ninguna jurisdicción. Sin embargo, el potencial de las falsificaciones profundas para generar desconfianza, sospecha y manipulación es motivo de preocupación.
La aplicación NoiseGPT dijo que su aplicación intentará ofuscar las violaciones de los derechos de propiedad intelectual y personal que permite la tecnología deepfake. Al seleccionar voces de celebridades en las que el usuario quiere que se hable su texto, estas opciones se etiquetarán como "no Donald Trump" o "no Jennifer Lawrence", para evitar infracciones.
¿Está la sociedad a punto de sumergirse en un caos profundo y falso?
Peartree cree que no todo será malo. Le dijo a Yahoo Finance UK: "Creo que es algo bueno, causará algo de caos al principio, pero al final encontraremos un equilibrio. Esta también fue la preocupación cuando salió Photoshop, por ejemplo".
Agregó que a la luz de sus implicaciones legales, la mitigación del riesgo de censura se está teniendo en cuenta en el diseño de la aplicación. La aplicación no se almacenará en un servidor centralizado, sino que utilizará almacenamiento descentralizado basado en blockchain.
"Los problemas legales son una de las razones por las que nos descentralizaremos rápidamente, tanto para la capacitación como para la conexión API, para que no podamos ser censurados", dijo.
La naturaleza descentralizada de la nueva aplicación significará que la carga computacional para ejecutar la aplicación se compartirá entre las computadoras de todo el mundo, que "ejecutarán los modelos, la capacitación y la alimentación API desde los hogares de las personas". Ejecutar el programa desde la computadora de su hogar será recompensado con tokens de criptomoneda NoiseGPT.
Peartree dijo: "Las personas que crean nuevas voces populares para la aplicación también serán recompensadas con la criptomoneda.
"Actualmente hay un impuesto del 5% sobre cada transacción con esta criptomoneda, pero esto se eliminará en el futuro. Todos los fondos se utilizan para desarrollo/operaciones, no eran tokens de equipo y todo el suministro se vendió públicamente".
Implicaciones legales y sociales de la tecnología deepfake
Ser capaz de manipular la voz humana podría plantear un desafío a la veracidad de la información que recibimos en línea y a través de nuestros teléfonos y poner en duda las comunicaciones personales que recibimos en las aplicaciones de mensajería.
Esto también tiene implicaciones para la interacción entre el estado y la nación y la forma en que podría usarse para influir en los rivales y complacer a la opinión pública.
Los legisladores ahora están trabajando para mitigar los riesgos de las falsificaciones profundas. Pero, las leyes actuales del Reino Unido deben ponerse al día.
Estas leyes solo cubren la distribución de imágenes reales, específicamente en casos como el porno de venganza, donde una expareja comparte públicamente material explícito privado y confidencial.
Si un delincuente crea y comparte material ultrafalso que presenta la identidad de su "objetivo" en contenido pornográfico, solo puede ser procesado si acosa directamente al objetivo enviándole el material o si el delito está relacionado con la infracción de derechos de autor.
Las implicaciones legales y sociales más amplias de la tecnología deepfake podrían extenderse a:
- Infracción de los derechos de propiedad intelectual: la tecnología deepfake se puede utilizar para hacerse pasar por alguien que posee la propiedad intelectual, lo que podría violar sus derechos.
- Violación de los derechos personales : los deepfakes se pueden usar para crear contenido explotador o pornográfico, lo que infringe la privacidad y los derechos personales de una persona.
- Daño a la reputación : los deepfakes pueden difundir información falsa y dañar la reputación de una persona, lo que podría tener consecuencias en su vida personal y profesional.
- Compromiso de la protección de datos y la privacidad: los deepfakes pueden amenazar la privacidad y la protección de datos de una persona, haciéndola vulnerable al robo de identidad y otras formas de ciberdelincuencia.
- Interrupción de las agendas políticas : los deepfakes se pueden usar para manipular la opinión pública, especialmente en momentos de mayor tensión política, como las elecciones.
- Difusión de información errónea : los deepfakes pueden usarse para difundir información falsa y generar una desconfianza general en las fuentes de noticias, las personas y las instituciones.
- Problemas de responsabilidad : el uso de deepfakes en marketing y otros materiales promocionales puede generar problemas de responsabilidad si los consumidores están mal informados o engañados.
- Amenaza para la seguridad nacional : los deepfakes pueden causar tensiones geopolíticas y representar una amenaza para la seguridad nacional si se utilizan para difundir información falsa o manipular la opinión pública.
Los deepfakes se están volviendo muy realistas y, a medida que avanza la tecnología, la comunicación de audio y video en línea podría volverse cada vez más dudosa.