Incidentes Asociados

Desde que encontró la fama a la tierna edad de diez años, a través de su papel de Hermione Grainger en la franquicia de películas de Harry Potter, Emma Watson se ha convertido en un nombre familiar. Lamentablemente, también se ha convertido en una de las celebridades más falsificadas en línea.
Esta palabra, 'deepfake', se está incrustando lentamente en nuestro léxico cotidiano a medida que los activistas preocupados hablan sobre la falsificación profunda (una forma de Medios sintéticos generados por IA que pueden hacer que parezca que alguien está haciendo cualquier cosa en un video o imagen fija) para crear conciencia y [fomentar la implementación de leyes estrictas] (https://www.cosmopolitan.com/uk/ informes/a42067496/deepfakes-illegal-laws/). Pero, en esta etapa temprana, donde los deepfakes todavía se filtran en la conciencia pública masiva, en su mayoría todavía están asociados con derribos políticos o mujeres editadas en escenarios pornográficos. En gran parte, sin su consentimiento.
Pero hay más cosas de las que deberíamos preocuparnos y hablar además de los videos falsos profundos, a saber: el audio falso.
¿Puedes falsificar la voz de alguien?
[Más del 90 % del contenido deepfake en línea es de naturaleza sexual] (https://www.cosmopolitan.com/uk/reports/a41534567/what-are-deepfakes/) y presenta a una víctima femenina (ya sea una celebridad o miembro de el público en general), la mayoría no son consensuales. Igual de alarmante es el hecho de que muchas de las caras famosas que son populares en los sitios web falsos, que reciben millones de visitas al mes, también pasaron a ser el centro de atención a una edad temprana y, a veces, las imágenes de ellos cuando eran menores de edad se utilizan para generar videos pornográficos. .
Hoy, en el año 2023, en general, todos somos conscientes de que las imágenes retocadas con Photoshop pueden crearse y publicarse (y a menudo lo hacen) sin ningún descargo de responsabilidad. Sabemos buscarlos en Instagram, a través de marcos de puertas con curvas o baldosas tambaleantes. Las [Kardashian a menudo son criticadas por sus fallas de Photoshop] (https://www.cosmopolitan.com/uk/entertainment/a42354779/kardashian-jenner-photoshop-fail-christmas-card/). También estamos llegando lentamente a la idea de que los videos también se pueden distorsionar, gracias a [la falla del 'filtro adelgazante' de Nicki Minaj] (https://www.cosmopolitan.com/uk/body/health/a41079762/ nicki-minaj-slimming-filter/) y la nueva serie de ITVX, Deep Fake Neighbor Wars, que ve tenuemente a 'Idris Elba', 'Greta Thunberg' y 'Kim Kardashian' siendo vecinos discutidores. (Las celebridades son generadas por IA y combinadas con los cuerpos de imitadores, que también hacen doblajes).
Cómo diablos ITVX ha podido salirse con la suya usando las imágenes de estas celebridades es curioso y espeluznante en igual medida, pero, presumiblemente, la falta de legislación sólida que existe (algo que [el gobierno ha prometido que se abordará parcialmente en el nuevo proyecto de ley de seguridad en línea] (https://www.cosmopolitan.com/uk/reports/a42067496/deepfakes-illegal-laws/)) que rodea a la falsificación profunda de la imagen de alguien, con o sin su consentimiento, es parte de la razón. Cuando se le preguntó, un portavoz de ITVX dijo a Cosmopolitan UK: "Los programas de entretenimiento de comedia con impresionistas han estado en nuestras pantallas desde que comenzó la televisión, la diferencia con nuestro programa es que estamos utilizando la última tecnología de inteligencia artificial para brindar una perspectiva nueva y emocionante a la género." También publican un descargo de responsabilidad al comienzo de cada episodio que dice que ninguna de las celebridades involucradas ha dado su consentimiento y tienen una marca de agua 'Deep Fake' en la pantalla en todo momento.
Pero, cuando se trata de discutir las reglas que rodean al audio falso, las reglas son aún más endebles, y ahora, estamos viendo que el daño que puede causar la clonación de voz se desarrolla con la misma rapidez. Lamentablemente, es algo con lo que Emma Watson ha sido atacada una vez más, en una escala aterradora. Recientemente, se publicó en 4chan, un sitio de foro de chat conocido por tener trasfondos oscuros y una fuerte comunidad incel , que muestra cuán poderosa (y accesible) se está volviendo esta tecnología. En una escala mayor, en 2020, los delincuentes expertos incluso usaron audio falso para [engañar al gerente de un banco] (https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud- usa-tecnología-de-voz-falsa-profunda-para-robar-millones/) en Hong Kong para autorizar una transferencia de $35 millones.
También se han planteado preocupaciones sobre el uso de audio falso (o 'voz profunda') cuando se trata de chantajear a personas, o la posibilidad de que se presenten clips falsificados como evidencia durante los juicios legales. Entonces, ¿qué podemos hacer al respecto?
"Los delincuentes incluso usaron audio para engañar al gerente de un banco para que autorizara una transferencia de $35 millones"
El sitio de tecnología Motherboard sugiere que el clip de Watson se hizo usando ElevenLabs ' (una "plataforma de voz de IA que promete revolucionar la narración de audio" que aún se encuentra en la etapa de prueba beta) programa de simulación de voz. Otras publicaciones han respaldado esto, con The Verge también experimentando e informando que puede a la voz del titiritero Joe Biden para leer un guión que habían escrito en varios minutos. En respuesta a estas preocupaciones planteadas en la prensa y en las redes sociales, ElevenLabs luego publicó un hilo en Twitter diciendo que tomarían medidas drásticas contra aquellos que quisieran usar su IA de copia de voz de forma anónima o por razones dañinas.
"Siempre hemos tenido la capacidad de rastrear cualquier clip de audio generado hasta un usuario específico. Ahora daremos un paso más y lanzaremos una herramienta que le permite a cualquier persona verificar si una muestra en particular se generó utilizando nuestra tecnología e informar el uso indebido". una declaración publicada el 31 de enero leer. "Casi todo el contenido malicioso fue generado por cuentas gratuitas y anónimas. Es necesaria una verificación de identidad adicional. Por esta razón, VoiceLab solo estará disponible en niveles pagos. Este cambio se implementará lo antes posible".
Continuó diciendo: "Estamos rastreando el contenido dañino que nos informan a las cuentas desde las que se originó y estamos prohibiendo esas cuentas por violar nuestra política [...] Continuaremos monitoreando la situación. ."
¿En cuanto a los posibles usos positivos del audio deepfake? Algunos han sugerido que podría ayudar a transformar guiones en podcasts o obras de radio, ser beneficioso para crear audiolibros y ser útil para usuarios con discapacidades visuales. Los gustos de ElevenLabs también tienen voces que no son de celebridades disponibles para entregar cualquier texto/redacción requerida, con un tono, una inclinación y un patrón de habla que suenan humanos (es decir: los robots simplemente ya no suenan como robots), pero están lejos de la única empresa que incursiona en este campo, o que ofrece a los usuarios la posibilidad de crear sus propios escenarios con voz grave.
Esta es solo otra gran llamada de atención social: tecnología deepfake [y AI en general] (https://www.cosmopolitan.com/uk/entertainment/a42721512/what-is-chatgpt-viral-chat-bot/) – se arraigará aún más en todos los aspectos de nuestras vidas, y eso hace que sea más importante que nunca permanecer alerta. Los poderes que están en la esfera tecnológica deben controlar mejor las bestias que han construido, y el gobierno debe responsabilizarlos por hacerlo.