Incidentes Asociados

El 7 de febrero, un día antes de las elecciones a la Asamblea Legislativa en Delhi, dos videos del presidente del Partido Bharatiya Janata (BJP), Manoj Tiwari, criticando al gobierno de Delhi de Arvind Kejriwal se hicieron virales en WhatsApp. En uno de los videos, Tiwari hablaba en inglés, mientras que en el otro, en el dialecto hindi de Haryanvi. "Kejriwal nos engañó con promesas. Pero ahora Delhi tiene la oportunidad de cambiarlo todo. Apretar el botón de loto el 8 de febrero para formar el gobierno liderado por Modi", declaró.
Video
Uno podría pensar que este monólogo de 44 segundos forma parte de una campaña política habitual, pero hay algo que no es habitual: estos videos no eran reales. Así era el video original:
Video
Corre el 2020 y los deepfakes se han convertido en una herramienta poderosa y preocupante, que permite manipular o fabricar contenido visual y de audio en internet para que parezca muy real. Son muy similares a las animaciones faciales de las películas de Hollywood, aunque no tan caras y con un lado oscuro. Desde su introducción en 2017, las caras de celebridades de primera línea han aparecido en videos pornográficos, lo que convierte a los deepfakes en una herramienta infame para su mal uso.
Cuando la Célula de TI del BJP de Delhi se asoció con la firma de comunicación política The Ideaz Factory para crear "campañas positivas" utilizando deepfakes para llegar a votantes de diferentes idiomas, marcó el debut de los deepfakes en las campañas electorales de India. "La tecnología deepfake nos ha ayudado a ampliar los esfuerzos de campaña como nunca antes", declaró a VICE Neelkant Bakshi, codirector de redes sociales y TI del BJP de Delhi. "Los videos en haryanvi nos permitieron llegar de forma convincente al público objetivo incluso si el candidato no hablaba el idioma del votante".
Video
El video inventado de Tiwari se utilizó ampliamente para disuadir a la gran población de trabajadores migrantes haryanvi de Delhi de votar por el partido político rival. Según Bakshi, estos deepfakes se distribuyeron en 5800 grupos de WhatsApp en la región de Delhi y NCR, llegando a aproximadamente 15 millones de personas.
Por lo tanto, no es sorprendente que la perspectiva de crear negocios de campaña utilizando deepfakes para influir en las masas haya alarmado a las organizaciones de verificación de datos y a los expertos en políticas. Muchos creen que los deepfakes llevarían la actual guerra contra la desinformación y las noticias falsas a un nuevo nivel, uno que ya se ha calificado como una "crisis de salud pública".
Desde el auge de los deepfakes en 2017, esta tecnología se ha utilizado ampliamente para crear vídeos pornográficos falsos utilizando vídeos de famosos y algoritmos de inteligencia artificial. De hecho, el 96 % de estos vídeos son pornografía deepfake no consensuada. El uso sin precedentes, y por lo tanto problemático, de los deepfakes se debe a que gran parte del código necesario para fabricar vídeos está disponible públicamente en varios repositorios de código, lo que facilita enormemente su creación.
En el ámbito político, la tecnología cobró protagonismo por primera vez en 2018, cuando un comediante que imitaba a Barack Obama presentó un video de servicio público sobre cómo los deepfakes pueden ser engañosos.
Video
En un incidente menos conocido, se creyó que una aparición en video de Ali Bongo, presidente de Gabón, en África Oriental, era un deepfake, lo que culminó en un fallido golpe de Estado militar del país. Sin embargo, las repercusiones políticas de los deepfakes han sido bastante limitadas, hasta ahora.
Sin embargo, con las campañas electorales con deepfakes, nos adentramos en una era en la que será imposible confiar en lo que vemos y oímos. El video de Tiwari, sentado frente a una pared verde y hablando a la cámara, se usó para reproducir una versión falsificada donde dice cosas que nunca dijo, ¡en un idioma que ni siquiera conoce! En este caso, el discurso fue guionizado, revisado y aprobado por el BJP para la creación de los deepfakes. Pero no es difícil imaginar a alguien falsificando un video para lanzar amenazas o incitar al odio contra un sector específico de la población.
Si bien muchos de los deepfakes más populares son cambios de rostro completos, una versión más sutil consiste en alterar solo los movimientos de los labios de un video original para que coincida con el audio original. The Ideaz Factory afirma haber hecho esto último para el video de Tiwari. “Utilizamos un algoritmo deepfake de sincronización labial y lo entrenamos con discursos de Manoj Tiwari para traducir sonidos de audio a formas básicas de la boca”, explica Sagar Vishnoi, estratega jefe de The Ideaz Factory. La empresa contrató a un artista de doblaje para imitar a Tiwari leyendo el guion en haryanvi, que luego se superpuso al video.
Bakshi, del BJP, afirma que la respuesta a esos videos ha sido alentadora. “Las amas de casa del grupo dijeron que era alentador ver a nuestro líder hablar mi idioma”, comentó, recordando uno de los comentarios en un grupo de WhatsApp. Tras la respuesta viral, el partido publicó un segundo video de Tiwari hablando en inglés dirigido a los votantes de las zonas urbanas de Delhi.
VICE compartió los videos con investigadores del Instituto Tecnológico de Rochester (RIT) en Nueva York, quienes creen que efectivamente se trata de deepfakes, pero esperan la confirmación de su software específico para detectarlos automáticamente. Ideaz Factory se negó a compartir más información sobre la tecnología utilizada, pero Saniat Javid Sohrawardi, investigador de deepfakes en el RIT, afirma: «A juzgar por la cronología de su trabajo, creo que usaron el código vid2vid de Nvidia» (https://tcwang0509.github.io/vid2vid/). El único otro algoritmo conocido para lograr esta tarea es face2face, una aplicación que se utilizó para crear el video deepfake de Obama.
En India, sin embargo, los deepfakes aún presentan algunos retrasos. En los videos de Tiwari, algunos miembros de grupos de WhatsApp señalaron una breve anomalía en el movimiento de la boca. Pero Vishnoi asegura que, dejando de lado los pequeños detalles, "hemos utilizado una herramienta que hasta ahora solo se ha empleado para campañas negativas o de emboscada y la hemos estrenado para campañas positivas". Admite que la tecnología que utiliza su empresa no está lo suficientemente desarrollada como para generar sintéticamente la voz del objetivo mediante algoritmos. Sin embargo, tienen planes para ampliar la campaña deepfake "positiva" de Tiwari a las próximas elecciones de Bihar y a las elecciones estadounidenses de 2020.
Tarunima Prabhakar, cofundadora de Tattle, un proyecto de tecnología cívica que está creando un archivo con función de búsqueda de contenido que circula en WhatsApp, afirma: "El problema con el discurso de campaña 'positivo' es que saca al genio de la lámpara". Esto significa que incluso si la empresa se autorregula de alguna manera y decide no producir videos maliciosos, otras empresas, posiblemente menos abiertas, idearán otros usos para instrumentalizar esta tecnología. "Decir que solo algunos tipos de deepfakes están permitidos por los partidos políticos da lugar a mucha subjetividad y poder interpretativo sobre quién define esos tipos", afirma Prabhakar.
El aumento de deepfakes, sumado al creciente número de herramientas y servicios, ha facilitado que personas no expertas creen videos deepfakes. Ideaz Factory es solo una de las varias empresas que han surgido en India para aprovechar este acceso. Existen portales de deepfakes y usuarios individuales en todo el mundo publicidad que pueden crear deepfakes personalizados por tan solo $30. Huelga decir que esta baja barrera de entrada ha dado lugar a más operadores encubiertos de deepfakes, duplicándose el número de deepfakes hasta alcanzar los 14.678 en 2019.
Esto también significa que la mayor parte del contenido deepfake inevitablemente eludirá la verificación de datos y a los expertos y recursos tecnológicos que intentan frenar esta amenaza. Pratik Sinha, fundador de AltNews, un sitio web indio de verificación de datos que verifica afirmaciones y afirmaciones realizadas en redes sociales, declaró a VICE: «En este momento, es imposible verificar los datos o verificar algo que no se reconoce como manipulado». Cuando VICE compartió los vídeos con Sinha para comprobar su validez, AltNews no pudo deducir que fueran falsos. «Esto es peligroso», afirma Sinha, cuya organización ha verificado miles de imágenes alteradas y vídeos manipulados en sus tres años de funcionamiento. “Es la primera vez que veo surgir algo así en India”.
En un país como India, donde la alfabetización digital es incipiente, incluso versiones de manipulación de video de baja tecnología han provocado violencia. En 2018, más de 30 muertes se relacionaron con rumores que circularon por WhatsApp en India. “Los deepfakes van a ser un potente catalizador del tipo de desinformación que tenemos”, afirmó Sinha. Si bien actualmente no existen herramientas para detectar deepfakes de forma fiable, los investigadores han intentado desarrollar algunas. Reality Defender, un complemento de navegador para detectar videos falsos, es una de ellas.
Sin embargo, expertos como Sinha creen que ninguna empresa debería tener un negocio legítimo relacionado con deepfakes para campañas electorales en India. En octubre del año pasado, el estado de California, en EE. UU., aprobó una ley que ilegalizaba la circulación de videos deepfake de políticos (https://www.theverge.com/2019/10/7/20902884/california-deepfake-political-ban-election-2020) dentro de los 60 días previos a las elecciones. La legislación se firmó para proteger a los votantes de la desinformación. Sin embargo, Prabhakar añade que en India, la prohibición de los deepfakes está condenada al fracaso, ya que nunca serían respaldados abiertamente por los partidos políticos. "Seguirían siendo operados por empresas fantasma", afirma.
Sin embargo, podría haber una solución. Vishnoi cree que debería haber una política gubernamental en torno a la desinformación en general, y la forma de contrarrestar los deepfakes negativos es mediante campañas de concienciación. Sin embargo, el Dr. Matthew Wright, director del Centro de Ciberseguridad del RIT, considera la aparición de deepfake en campañas electorales como "un caso de uso potencialmente positivo, siempre que se divulgue". "¿Por qué nuestros líderes políticos deberían ser accesibles solo para quienes saben leer, suponiendo que la traducción esté fácilmente disponible en el idioma escrito correcto?", pregunta. "Pero si se usa de forma engañosa, es otra historia, y estoy seguro de que algunos desdibujarán los límites".