Incidentes Asociados

“Todo esto es diversión, comedia nocturna y videojuegos, hasta que deja de serlo”, dice el exasesor principal de la Casa Blanca, David Edelman.
David Edelman, exasesor especial de los presidentes Bush y Obama en tecnología y seguridad cibernética, estaba trabajando en la Casa Blanca durante el trágico tiroteo en el club nocturno de Orlando hace dos años exactamente.
“Estuve allí la noche en que sucedió y estábamos haciendo el sombrío ritual que ocurre con demasiada frecuencia en la Casa Blanca, de preparar una declaración para asegurar a la nación”, recuerda Edelman.
Dando una presentación en el evento de tecnología Amplify de AMP en Sydney ayer, Edelman reprodujo un clip del discurso de Obama pronunciado en los días posteriores a la tragedia.
La tristeza en los ojos de Obama, su postura desinflada está a la vista. Excepto que no fue realmente Obama: las imágenes del discurso fueron completamente inventadas.
El clip fue el resultado de un modelo de red neuronal recurrente desarrollado por investigadores de la Universidad de Washington, quienes el año pasado crearon un "modelo de cabeza parlante fotorrealista" de Obama que puede "hablar" cualquier entrada de audio dada.
“Eso fue falso. Fue 100 por ciento generado por computadora. No superponiendo su rostro a otra persona, completamente generado desde cero. Dio ese discurso, pero lo hizo desde un lugar completamente diferente, la sala este de la Casa Blanca, un lugar totalmente diferente”, dijo Edelman, ahora director de un proyecto de política tecnológica en el MIT.
El llamado video 'Deep Fake' fue tan bueno que engañó a Edelman.
“Ahora escribía discursos para el tipo. Lo conozco. No puedo distinguir la diferencia entre lo real y lo falso. Ese es el poder de la tecnología de la que estamos hablando”, dijo.
Reanimando a Reagan
Las técnicas de IA detrás de los videos 'Deep Fake' están avanzando rápidamente. En un artículo que se publicará en la revista ACM Transactions on Graphics el próximo mes, investigadores de la Universidad de Stanford, la Universidad de Bath y otros, así como de Technicolor, describen una "red neuronal generativa con una arquitectura de espacio-tiempo novedosa".
Los resultados son aterradoramente impresionantes. El trabajo, denominado 'Deep Video Portraits', permite mapear un video de alguien hablando en un 'video de retrato' de otra persona. Y no solo los movimientos de los labios y las expresiones faciales básicas, sino también la posición completa de la cabeza en 3D del actor fuente, la rotación de la cabeza, el parpadeo y la mirada.
Además de "reanimar" imágenes de sí mismos, los investigadores también demuestran que sus palabras y acciones fueron replicadas por la primera ministra del Reino Unido, Theresa May, el difunto presidente Ronald Reagan y el presidente ruso Vladamir Putin.
Los investigadores son conscientes del potencial dañino de su trabajo.
"Desafortunadamente, además de los muchos casos de uso positivos, dicha tecnología también puede ser mal utilizada", escribe en su blog el coautor del artículo, el profesor visitante de la Universidad de Stanford, Michael Zollhofer.
“Por ejemplo, la combinación de síntesis fotorrealista de imágenes faciales con un imitador de voz o un sistema de síntesis de voz permitiría la generación de contenido de video inventado que podría usarse para difamar a las personas o para difundir las llamadas falsificaciones. noticias”, añade.
Imagina el daño
En la actualidad, la creación de videos 'Deep Fake' avanzados se limita a aquellos con las habilidades informáticas necesarias, pero no por mucho tiempo, predice Edelman.
“Hoy, en este momento, esto es bastante difícil de lograr… pero la verdad es que se está moviendo cada vez más hacia el ámbito de lo posible”, dijo. “Y en uno o dos años será tan fácil como Microsoft Paint y estará disponible”.
Las salidas tampoco se limitarán a los políticos. Las figuras públicas son objetivos iniciales obvios, debido a la gran cantidad de material de archivo de alta calidad disponible públicamente, pero los Deep Fakes inevitablemente se crearán representando a líderes empresariales, lectores de noticias y cualquier persona que haya publicado un video de ellos mismos en las redes sociales o en YouTube.
David Edelman en el evento Amplify de AMP en Sydney
“¿Qué sucede cuando no solo se usa para la coerción política, lo que ciertamente podría ser? Puede imaginarse tratar de reducir el mercado con una noticia repentina de 'Deep Fake' que se vuelve viral. ¿Qué sucede cuando esto se convierte en un lugar común para todos nosotros? ¿Qué sucede cuando un CEO es captado en video momentos antes de la gran llamada de ganancias? dijo Edelman.
“¿Qué sucede cuando es un video tuyo haciendo algo que nunca hiciste? ¿Acosar sexualmente a alguien o tal vez abusar de uno de sus empleados? ¿Qué dirías? ¿Su empleador le creería que el video ha sido falsificado? Imagínense el daño que puede hacer esta tecnología”, agregó.
Los investigadores de 'Deep Video Portraits' sugieren que los avances en el análisis forense digital conducirán a enfoques que pueden probar automáticamente la autenticidad de un clip. También enfatizan la necesidad de algoritmos sofisticados de detección de fraudes y marcas de agua.
“En mi opinión personal, lo más importante es que el público en general debe conocer las capacidades de la tecnología moderna para la generación y edición de video”, escribe el profesor Zollhofer.
“Esto les permitirá pensar más críticamente sobre la