Incidentes Asociados

El 2 de marzo, el Centro de Comunicación Estratégica del gobierno de Ucrania [advirtió](https://www.facebook.com/StratcomCentreUA/posts/300254888841165?cft% 5B0%5D=AZW49WphHXZNM7iYelmfUCV6QAyQNTh0Q_cQW8PDDmkjpouRQEvFWkYuf2tZAbxj90I1OZeAPeNfyc9rormS48QuhauI4jjcuM-6nRq-0sEWUFz821kdlG1btkI7lr7yyDh6 Fh3-E-vyNjB0FzrkWX3z&tn=%2CO%2CP-R) que sus enemigos podrían estar preparando un vídeo “deepfake” que parecía mostrar al presidente Volodymyr Zelensky anunciando su rendición a la invasión de Rusia. El miércoles, esa advertencia parecía profética.
En Facebook y YouTube surgió un vídeo falso en el que una versión extrañamente inmóvil de Zelensky pedía a las tropas ucranianas que depusieran las armas con una voz diferente a su tono habitual. El clip también se publicó en Telegram y en la red social rusa VKontakte, según el grupo de expertos estadounidense [Atlantic Council](https://www.atlanticcouncil.org/blogs/new-atlanticist/russian-war-report-hacked-news -programa-y-video-deepfake-difundido-afirmaciones-falsas-zelenskyy/). Canal de televisión Ucrania 24 dijo los piratas informáticos desfiguraron su sitio web con una imagen fija del vídeo e insertaron un resumen de las noticias falsas en una transmisión Quirón en desplazamiento.
Minutos después de que la estación de televisión publicara sobre el hackeo, el propio Zelensky publicó un video en Facebook negando haber pedido a los ucranianos que depongan las armas y calificando la falsificación como una provocación infantil. Nathaniel Gleicher, jefe de política de seguridad de Meta, propietario de Facebook, tuiteó que la compañía había eliminado el clip deepfake original por violar su política contra medios manipulados engañosos. Una declaración proporcionada por el portavoz de Twitter, Trenton Kennedy, dijo que la compañía estaba rastreando el video y eliminándolo en los casos en que infringía las reglas medios sintéticos engañosos. La portavoz de YouTube, Ivy Choi, dijo que también había eliminado las cargas del vídeo.
Esa saga de corta duración podría ser el primer uso de deepfakes como arma durante un conflicto armado, aunque no está claro quién creó y distribuyó el video y con qué motivo. La forma en que la falsificación se desmoronó tan rápidamente muestra cómo se pueden derrotar los deepfakes maliciosos, al menos cuando las condiciones son adecuadas.
Este contenido también se puede ver en el sitio desde el que se origina.
El verdadero Zelensky se benefició el miércoles de ser parte de un gobierno que se había preparado para ataques ultrafalsos. Su rápida respuesta con un vídeo que lo desacreditaba y la ágil reacción de Ukraine 24 y las plataformas sociales ayudaron a limitar el tiempo que el clip podía difundirse sin oposición.
Esas son estrategias de libro de texto para defenderse de una amenaza tan nueva como los deepfakes políticos. La preparación y la respuesta rápida fueron el núcleo de un [libro de estrategias para derrotar a los deepfakes](https://carnegieendowment.org/2019/09/05/campaigns-must-prepare-for-deepfakes-this-is-what-their-plan -should-look-like-pub-79792) que el Carnegie Endowment for International Peace publicó para campañas políticas antes de las elecciones presidenciales estadounidenses de 2020.
Zelensky también se benefició de su posición como una de las personas de más alto perfil del mundo y de la mala calidad del deepfake. El doble presidencial deepfake parecía antinatural, con un rostro que no coincidía con su cuerpo y su voz sonaba diferente a la de su objetivo.
Otros conflictos y líderes políticos pueden ser menos afortunados y podrían ser más vulnerables a la interrupción de los deepfakes, dice Sam Gregory, que trabaja en políticas de deepfakes en la organización sin fines de lucro Witness.
El alto perfil de Zelensky ayudó a que la advertencia ultrafalsa de Ucrania de hace dos semanas ganara cobertura noticiosa internacional, y también ayudó a que su rápida respuesta del miércoles se extendiera rápidamente. Su prominencia también puede haber provocado una rápida respuesta al vídeo por parte de las empresas de redes sociales. El portavoz de Meta, Aaron Simpson, se negó a decir cómo detectó el vídeo; también lo hizo Choi de YouTube. La declaración proporcionada por Kennedy de Twitter dio crédito a "informes de investigación externos" no especificados.
No todas las personas que son objeto de deepfakes podrán reaccionar con tanta agilidad como Zelensky, ni encontrar tanta confianza en su repudio. "Ucrania estaba bien posicionada para hacer esto", dice Gregory. "Esto es muy diferente de otros casos, donde incluso un deepfake mal hecho puede crear incertidumbre sobre la autenticidad".
Gregory señala un vídeo que apareció en Myanmar el año pasado, que parecía mostrar a un ex ministro del gobierno detenido diciendo que había proporcionado dinero en efectivo y oro a la ex líder del país, Aung San Suu Kyi.
El gobierno militar que desplazó a Aung San Suu Kyi mediante un golpe de estado utilizó esas imágenes para acusarla de corrupción. Pero en el vídeo el rostro y la voz del exministro estaban distorsionados, lo que provocó que muchos periodistas y ciudadanos sugirieran que el clip era falso.
El análisis técnico no ha resuelto el misterio, en parte porque el video es de baja calidad y porque el ex ministro y otras personas familiarizadas con la verdad no hablan con tanta libertad ni ante una audiencia tan grande como lo haría Zelensky el miércoles. Si bien los detectores automáticos de deepfake algún día podrían ayudar a combatir a los malos actores, [todavía es un trabajo en progreso] (https://www.wired.com/story/what-happened-deepfake-threat-election/).
Los deepfakes todavía se utilizan generalmente más para excitar o acosar que para un gran engaño, especialmente porque se vuelven [más fáciles de crear] (https://www.wired.com/story/deepfakes-making-business-pitches/). Un deepfake del presidente ruso Vladimir Putin [circulado en Twitter](https://www.reuters.com/article/factcheck-putin-address/fact-check-doctored-video-appears-to-show-putin-anusing-peace -idUSL2N2VK1CC) también esta semana, aunque se identificó como no auténtico desde el principio. Sin embargo, el deepfake de Zelensky y los hacks que lo acompañan podrían representar una nueva frontera preocupante. La respuesta rápida y exitosa al clip resalta cómo, con algunos ajustes y una mejor sincronización, un ataque deepfake podría ser un arma política eficaz.
"Si se hubiera tratado de un vídeo más profesional y se hubiera publicado al principio de un avance ruso más exitoso sobre Kiev, podría haber creado mucha confusión", dice Samuel Bendett, que rastrea la tecnología de defensa rusa en la organización sin fines de lucro CNA. A medida que la tecnología deepfake continúa volviéndose más fácil de acceder y [más convincente](https://www.wired.com/story /cheap-easy-deepfakes-closer-real-thing/), es poco probable que Zelensky sea el último líder político blanco de videos falsos.