Incidentes Asociados

Si pensabas que la difusión desenfrenada de noticias falsas basadas en texto era tan mala como podía ser, piénsalo de nuevo. Generar videos de noticias falsas que no se pueden distinguir de los reales es cada vez más fácil.
Un equipo de científicos informáticos de la Universidad de Washington ha utilizado inteligencia artificial para generar videos visualmente convincentes de Barack Obama diciendo cosas que ha dicho antes, pero en un contexto totalmente nuevo.
En un artículo publicado este mes, los investigadores explicaron su metodología: utilizando una red neuronal entrenada con 17 horas de imágenes de los discursos semanales del expresidente de EE. UU., pudieron generar formas de boca a partir de clips de audio arbitrarios de la voz de Obama. Luego, las formas se texturizaron con calidad fotorrealista y se superpusieron en la cara de Obama en un video de "objetivo" diferente. Finalmente, los investigadores reprogramaron el video de destino para mover el cuerpo de Obama de forma natural al ritmo de la nueva pista de audio.
Este no es el primer estudio que demuestra la modificación de una cabeza parlante en un video. Como informó anteriormente Dave Gershgorn de Quartz, en junio del año pasado, los investigadores de Stanford publicaron una metodología similar para alterar las expresiones faciales pregrabadas de una persona en tiempo real para imitar las expresiones de otra persona haciendo rostros en una cámara web. El nuevo estudio, sin embargo, agrega la capacidad de sintetizar video directamente a partir de audio, generando efectivamente una dimensión superior a partir de una inferior.
En su artículo, los investigadores señalaron varias aplicaciones prácticas de poder generar video de alta calidad a partir de audio, incluida la ayuda a las personas con discapacidad auditiva a leer el audio de los labios durante una llamada telefónica o la creación de personajes digitales realistas en las industrias del cine y los juegos. Pero la consecuencia más preocupante de esta tecnología es su potencial para proliferar noticias falsas basadas en videos. Aunque los investigadores usaron solo audio real para el estudio, pudieron omitir y reordenar las oraciones de Obama sin problemas e incluso usar el audio de un imitador de Obama para lograr resultados casi perfectos. El rápido avance del software de síntesis de voz también proporciona soluciones sencillas y listas para usar para audio falsificado convincente.
Hay algunas buenas noticias. En este momento, la efectividad de esta técnica de síntesis de video está limitada por la cantidad y la calidad del metraje disponible para una persona determinada. Actualmente, señaló el documento, los algoritmos de IA requieren al menos varias horas de metraje y no pueden manejar ciertos casos extremos, como los perfiles faciales. Los investigadores eligieron a Obama como su primer estudio de caso porque sus discursos semanales brindan una gran cantidad de imágenes de alta definición disponibles públicamente de él mirando directamente a la cámara y adoptando un tono de voz constante. Sintetizar videos de otras figuras públicas que no cumplan con esas condiciones sería más desafiante y requeriría un mayor avance tecnológico. Esto gana tiempo para que las tecnologías que detectan videos falsos se desarrollen en paralelo. Como informó The Economist a principios de este mes, una solución podría ser “exigir que las grabaciones vengan con sus metadatos, que muestran cuándo, dónde y cómo fueron capturadas. Saber tales cosas hace posible eliminar una fotografía como falsa sobre la base, por ejemplo, de una falta de coincidencia con las condiciones locales conocidas en ese momento”.
Pero a medida que las puertas para nuevas formas de medios falsos continúan abriéndose, en última instancia, los consumidores tendrán que andar con cuidado.