Incidentes Asociados

Una red neuronal entrenada con horas de metraje para producir este video del presidente Barack Obama sincronizando los labios.
Siempre comienza con la pornografía.
¿Qué reveló por primera vez el poder de Internet para distribuir información? La inmensa e inmediata explosión de contenido para adultos, por supuesto.
Históricamente, la pornografía ha sido un canario confiable en la mina de carbón, por lo que el video de "falsificación profunda" que Vice encontró a fines de 2017 tiene a los legisladores prestando atención.
Usando plataformas gratuitas de aprendizaje automático, la gente en Reddit superpuso la cara de Gal Godot de Wonder Woman en el cuerpo de una actriz porno en un video sexual espeluznante y casi convincente.
Compartir Los investigadores utilizan "Captura de rostros en tiempo real" en el presidente ruso, Vladimir Putin.
"Era 100 por ciento predecible", dijo Hany Farid, profesor de informática en Dartmouth College, que se especializa en análisis forense digital.
El Dr. Farid cree que estamos en una encrucijada: aún podemos saber cuándo se han manipulado los videos. ¿Pero por cuánto tiempo?
La democratización del aprendizaje automático ha comenzado. Y también lo ha hecho la búsqueda de nuevas formas de separar los hechos de la ficción.
Una crisis pública
Barack Obama se ha hecho a la sincronización de labios. Investigadores alemanes han controlado el rostro de Vladimir Putin.
El Dr. Mehrtash Harandi, científico sénior que investiga el aprendizaje automático en Data61, dijo que el resultado de estas máquinas de aprendizaje profundo a menudo es borroso.
Si presta atención, puede ver que los movimientos de los labios no coinciden del todo con el discurso. Los dientes son notoriamente difíciles de sintetizar de manera realista.
Pero la tecnología mejorará, y rápidamente.
Más allá de la moralidad de los "deep fakes" pornográficos, un video alterado de Donald Trump, por ejemplo, podría tener graves consecuencias geopolíticas.
Los videos manipulados podrían mostrar a los políticos "aceptando sobornos, pronunciando epítetos raciales o cometiendo adulterio", sugirieron los profesores de derecho estadounidenses Bobby Chesney y Danielle Citron en el blog Lawfare.
Incluso una falsificación de baja calidad, si se implementa en un momento crítico como la víspera de una elección, podría tener un impacto.
"La confianza pública puede verse afectada, sin importar cuán creíble sea la refutación del gobierno de los videos falsos".
Los políticos estadounidenses quieren que se haga algo.
"Todos necesitaremos alguna forma de autenticación de nuestra identidad a través de la biometría. De esta manera, la gente sabrá si la voz o la imagen es real o de un imitador", dijo el congresista Ro Khanna a The Hill.
Sugirió que la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos debería crear un "protocolo de Internet seguro" para autenticar imágenes.
¿Cómo autentificamos el contenido?
Una marca de agua o una "clave" digital para identificar el contenido auténtico podría ser una herramienta útil, sugirió el Dr. Harandi.
Pero ha habido poco movimiento hacia un protocolo global sobre estos asuntos. "En este momento, es un desastre", dijo.
En respuesta al blog de los profesores Chesney y Citron, Herb Lin, investigador senior de políticas cibernéticas de la Universidad de Stanford, sugirió que los proveedores de tecnología podrían crear "firmas digitales" que se asignan al comprador.
Aunque, como señaló el Dr. Lin, las claves encriptadas ya insertadas en las cámaras digitales han sido descifradas.
El Dr. Farid no está seguro de que haya una respuesta fácil.
Podríamos agregar una huella digital a una imagen a través del sensor de la cámara de un teléfono inteligente, por ejemplo. Sin embargo, habría millones de dispositivos sin esa tecnología, toda la tecnología de cámara preexistente en todos los países, dijo.
¿Tendríamos ahora que considerar todas las imágenes y videos anteriores como falsos, por defecto?
Luego está el peor de los casos: confiar en esta clave, este símbolo de la verdad, cuando es completamente poco confiable.
"Cualquier tecnología que le permita tomar huellas dactilares, el adversario descubrirá cómo sacarla, manipular el contenido y luego volver a colocar esa huella digital", dijo el Dr. Farid.
"Eso está casi garantizado".
La ética de los 'deep fakes'
Se necesita mucho video para producir un video "deep fake" convincente. Es por eso que las personas famosas son las más vulnerables, por ahora.
"Entrenar nuestro sistema con otra persona, como una persona que no sea una celebridad, puede ser bastante desafiante debido a la dificultad de obtener horas de datos de entrenamiento", escribieron en su informe los investigadores que hicieron la sincronización de labios de Obama.
Su trabajo utilizó 17 horas de video.
Sin embargo, una red entrenada en el exlíder de EE. UU. podría volver a trabajar para otra persona con menos datos de entrenamiento adicionales en el futuro, sugirió el Dr. Harandi.
A medida que estas tecnologías mejoren, el contenido falso podrá sintetizarse utilizando menos imágenes. Y esas imágenes podrían provenir de cualquier lugar, dijo el Dr. Farid.
"Si ha subido a Facebook literalmente cientos o miles de imágenes suyas que han sido etiquetadas durante los últimos años, ahora tiene exposición", dijo.
Existe la preocupación de que si un video falso se ajusta a nuestras creencias políticas personales, podría ser difícil no creerlo, incluso cuando haya pruebas de su falta de autenticidad.
Para salvarnos de nosotros mismos, el gobierno o los mismos tecnólogos pueden necesitar encontrar salvaguardas.
El Dr. Farid cree que los investigadores no están pensando con suficiente profundidad en las herramientas que están desarrollando.
"Ya seamos biólogos trabajando en virus asesinos o tecnólogos trabajando en aprendizaje automático, [debemos]