Problema 2984

Durante el fin de semana, la cuenta de Twitter del departamento de policía de Londres compartió que los agentes habían arrestado a sospechosos por posesión de “una gran cantidad de cannabis”, incluida una imagen de lo que parecía ser una [hierba] realmente asquerosa (https:/ /www.rollingstone.com/t/weed/). Las respuestas a la publicación se llenaron rápidamente de chistes sobre policías que confiscaron recortes de setos, hojas sueltas de té de manzanilla, etc., pero un tuit incluía un clip de audio falso del presidente [Joe Biden] (https://www.rollingstone.com) /t/joe-biden/) explicando que en realidad prefiere la marihuana de baja calidad.
“Soy de Scranton”, dijo el Biden simulado. “Lo que estoy fumando es tierra. Así que aclaremos eso, Jack. Ladrillo puro. Culo. ¿Bueno?"
Por supuesto, el verdadero Biden no ha dicho tal cosa (al menos no públicamente). Pero últimamente, el Biden virtual ha estado hablando, con bastante fluidez, sobre una serie de temas sobre los que el presidente no tendría o no debería tener opiniones firmes. Todo gracias al advenimiento de poderosas herramientas de inteligencia artificial para la clonación de voz, y una en particular que se lanzó el mes pasado: Voice Lab, una plataforma creada por la startup de inteligencia artificial [ElevenLabs] (https://beta.elevenlabs.io/).
Por solo $5, puede acceder al software de ElevenLabs y comenzar a crear su propio audio. Todo lo que necesita para imitar de manera realista a una persona real, y luego leer cualquier texto en su voz, es una [muestra breve] (https://oneusefulthing.substack.com/p/a-quick-and-sobering-guide-to- cloning?utm_source=direct&r=i5f7&utm_campaign=post&utm_medium=web) del discurso de esa persona, que utiliza para crear un “clon”. Las grabaciones de la voz de Biden son abundantes, por lo que es fácil crear su copia de IA de él. Entonces es cuestión de escribir lo que quieras que diga. Tal vez hayas imaginado a un Biden jugador que despotrica sobre "chicos cabrones" jugando como "héroes sin habilidades" en [Overwatch](https://www.rollingstone.com/culture/culture-features/overwatch- video-juego-porno-1234662428/)? Ahora puedes darle vida a ese personaje, "Joe Rizzler".
Si bien los clips como este son claramente artificiales y aparentemente inocuos, el posible abuso de tecnología como esta es motivo de preocupación. ElevenLabs mismo, poco después de que Voice Lab entrara en su fase beta, tuiteó que habían visto "un número creciente de casos de uso indebido de clonación de voz" y que tomarían medidas para "implementar salvaguardias adicionales". La empresa no llegó a describir un mal uso específico, pero casi al mismo tiempo, los trolls de 4chan estaban usando la herramienta para generar audio falso de varias figuras públicas [pronunciando discurso de odio] (https://www.vice.com/en/article/dy7mww /ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs). Un fragmento sonaba como si la actriz Emma Watson leyera Mein Kampf de Hitler. Y a principios de este mes, en un [deepfake similar](https://fortune.com/2023/02/11/artificial-intelligence-makes-voice-cloning-easy-and-the-monster-is-ya-on- the-loose/) combinado con imágenes de video manipuladas, Biden pareció dar un discurso denunciando a las personas transgénero. No hace falta decir que eso nunca sucedió.
Si bien podemos rastrear cualquier audio generado hasta el usuario, nos gustaría abordar esto implementando medidas de seguridad adicionales.
— ElevenLabs (@elevenlabsio) 30 de enero de 2023
ElevenLabs no respondió a una solicitud de comentarios sobre qué nuevas medidas de seguridad agregaron o planean aplicar a Voice Lab. Tampoco abordaron si ven los discursos no ofensivos de AI Biden, como uno compartido por el usuario de Twitter @MNateShyamalan, en el que se pone filosófico sobre la comedia de situación Young Sheldon, como ejemplos de "uso indebido". Los eventuales impactos de la clonación de voz aún están por verse; las mejoras en la tecnología sin duda complicarán los esfuerzos para separar las grabaciones genuinas del material falso diseñado para impulsar una agenda o una narrativa falsa. En este momento, sin embargo, los carteles de mierda se deleitan con las palabras apolíticas que pueden poner en la boca del presidente.
¿Por qué es tan divertido, atractivo o incluso reconfortante escuchar a un bot de Biden escupir referencias a las drogas y los videojuegos? Bueno, para empezar, no es exactamente presidencial. Luego está el hecho de que el propio Biden tiene 80 años: la lengua vernácula juvenil es absolutamente absurda en su cadencia de abuelo. Para Zach Silberberg, un productor de contenido digital cuyos discursos de AI Biden causaron sensación en Twitter (uno lo tiene discutiendo la película [Matt Damon] (https://www.rollingstone.com/t/matt-damon/) We Bought a Zoo, y en otro [se queja](https:// twitter.com/zachsilberberg/status/1627108785947828225) de estar "invertido" como los personajes de [Tenet](https://www.rollingstone.com/tv-movies/tv-movie-reviews/tenet-movie-review- christopher-nolan-1047641/)), el elemento de anarquía es esencial.
“Esta versión del presidente es impredecible”, dice Silberberg. “No tenemos idea de qué diablos va a decir. Podría ser tonto, vulgar, incoherente o cualquier cosa. No es lento ni aburrido y más de la misma versión neoconservadora de un demócrata que hemos sido condicionados a aceptar como la versión más liberal de un presidente que podemos tener”.
Y, en última instancia, señala Silberberg, quien también ha hecho diálogos cómicos falsos entre [Joe Rogan](https://www.rollingstone.com/t/joe- rogan/) y Ben Shapiro utilizando el software de ElevenLabs: los riffs de Biden se tratan de superar al hombre más poderoso del mundo. “Es una fantasía para un presidente del que podemos reírnos y también torturar. ¿Quién no quiere ver a Joe Biden quedarse atrapado en la casa de una película de terror? Es simplemente gracioso”. Silberberg aclaró que es “anti-IA” y que “la IA es mala”. En ese sentido, sus videos pueden interpretarse como advertencias.
Entonces, mientras ElevenLabs promociona los logros más mundanos de su tecnología, como la capacidad de crear una voz totalmente sintética que leerá [El gran Gatsby] (https://twitter.com/elevenlabsio/status/1619698578339004416) en voz alta, una parte significativa de su base de usuarios hasta la fecha está más interesada en las travesuras, que van desde histéricas e inofensivas hasta estratégicas y maliciosas. Aparte de aprobar o denegar manualmente cada solicitud de clonación de voz (una opción que han considerado), probablemente no haya mucho que la startup pueda hacer para tomar medidas enérgicas contra las clonaciones de voz. de nuestros presidentes pasados y futuros. Eso podría ser desastroso para la democracia tal como la conocemos, pero por otro lado, significa que podemos escuchar a Trump y Biden discutiendo como adolescentes sobre un juego de disparos en primera persona multijugador. Lo cual es quizás más preciso para nuestro momento político de lo que nos gustaría admitir.