Incidentes Asociados
El veredicto ya estaba dado y era reconfortante: los deepfakes son el "perro que nunca ladró". Así lo afirmó Keir Giles, especialista en Rusia del Centro de Investigación de Estudios de Conflictos del Reino Unido. Giles razonó que la amenaza que representan los deepfakes se ha arraigado tanto en la imaginación del público que nadie se dejaría engañar si aparecieran. En pocas palabras, los deepfakes "ya no tienen el poder de impactar". Tim Hwang estuvo de acuerdo, pero por diferentes razones, algunas técnicas, otras prácticas. Hwang afirmó que cuanto más deepfakes se hagan, mejor será el aprendizaje automático para detectarlos. Mejor aún, las principales plataformas están concentrando sus esfuerzos en eliminar los deepfakes, dejándolos "relegados a sitios con muy pocos usuarios como para tener un efecto importante".
No estamos de acuerdo con ninguna de estas afirmaciones. Los deepfakes han estado "ladrando", aunque hasta ahora su mordisco se ha sentido con mayor frecuencia de maneras que muchos de nosotros nunca vemos. Los deepfakes, de hecho, han tenido un grave costo en las vidas de las personas, especialmente en las vidas de las mujeres. Como suele suceder con los primeros usos de las tecnologías digitales, las mujeres son los canarios en la mina de carbón. Según Deeptrace Labs, de los aproximadamente 15.000 vídeos deepfake que aparecen online, el 96% son vídeos de sexo deepfake; y el 99% de ellos son rostros de mujeres insertados en pornografía sin consentimiento. Incluso para aquellos que han oído mucho sobre los posibles daños de los deepfakes, la oportunidad de sorprenderse sigue siendo fuerte. Pensemos en el destino que corrió la periodista y activista de derechos humanos Rana Ayyub. Cuando en abril de 2018 apareció un vídeo de sexo deepfake que mostraba a Ayyub participando en un acto sexual en el que nunca participó, el vídeo se difundió como un reguero de pólvora. En 48 horas, el vídeo apareció en más de la mitad de los teléfonos móviles de la India. El perfil de Facebook y la cuenta de Twitter de Ayyub se vieron invadidos por amenazas de muerte y violación. Había carteles que revelaban la dirección de su casa y afirmaban que estaba disponible para tener sexo anónimo. Durante semanas, Ayyub apenas podía comer ni hablar. Tenía miedo de salir de su casa por miedo a que los extraños cumplieran sus amenazas. Dejó de escribir, el trabajo de su vida, durante meses. Es impactante desde cualquier punto de vista.
¿Es esto realmente diferente de la amenaza que plantean las formas de fraude más conocidas y menos tecnológicas? Sí. La cognición humana nos predispone a ser persuadidos por evidencias visuales y auditivas, pero especialmente cuando el video o el audio en cuestión son de tal calidad que nuestros ojos y oídos no pueden detectar fácilmente que algo artificial está funcionando. El video y el audio tienen un poderoso impacto en las personas. Los creemos verdaderos con la idea de que podemos creer lo que nuestros ojos y oídos nos dicen. Además, cuanto más escabroso y negativo sea el deepfake, más inclinados estamos a transmitirlo. Los investigadores han descubierto que los engaños en línea se propagan diez veces más rápido que las historias veraces. Y si una deepfake coincide con nuestros puntos de vista, entonces es más probable que la creamos. Para empeorar las cosas, es probable que las tecnologías asociadas con la creación de deepfakes se difunda rápidamente en los próximos años, lo que hará que la capacidad esté al alcance de un círculo cada vez más amplio de usuarios y abusadores.
La creciente conciencia de la amenaza de las deepfakes es en sí misma potencialmente dañina. Aumenta las posibilidades de que las personas caigan víctimas de un fenómeno que dos de nosotros (Chesney y Citron) llamamos el Dividendo del Mentiroso. En lugar de ser "engañados" por deepfakes, las personas pueden llegar a desconfiar de todas las grabaciones de vídeo y audio. La decadencia de la verdad es una bendición para los moralmente corruptos. Los mentirosos pueden escapar de la responsabilidad por las malas acciones y descartar la evidencia real de su travesura diciendo que es "sólo un deepfake". Los políticos ya han tratado de aprovechar el Dividendo del Mentiroso. En el momento de la publicación de la cinta de Access Hollywood en 2016, por ejemplo, el entonces candidato Trump luchó para defender sus palabras de "Ni siquiera espero. Y cuando eres una estrella, te dejan hacerlo. Puedes hacer cualquier cosa. ... Agárralas por el coño. Puedes hacer cualquier cosa". Un año después, sin embargo, el presidente Trump intentó poner en duda la grabación diciendo que era falsa o manipulada. El presidente luego hizo una afirmación similar al tratar de distanciarse de sus propios comentarios sobre el despido del director del FBI James Comey durante una entrevista con Lester Holt de NBC. Tales intentos encontrarán una audiencia más receptiva en el futuro, a medida que crezca la conciencia de que es posible hacer videos y grabaciones de audio falsos que no pueden detectarse como falsos solo por nuestros ojos y oídos.
¿Puede la tecnología realmente salvarnos, como sugirió Hwang, generando herramientas de detección confiables? Como cuestión inicial, no estamos de acuerdo con la afirmación de que las herramientas de detección inevitablemente ganarán el día en este juego del gato y el ratón. Ciertamente, todavía no hemos llegado a ese punto en lo que respecta a la detección de deepfakes que se crean con redes generativas adversarias, y no está claro que debamos ser optimistas sobre llegar a ese punto. Décadas de experiencia con las carreras armamentísticas que involucran spam, malware, virus y falsificación de fotografías nos han enseñado que jugar a la defensiva es difícil y que los adversarios pueden estar altamente motivados e innovar, encontrando constantemente formas de penetrar las defensas. Además, incluso si surgen tecnologías de detección capaces, no se garantiza que resulten escalables, difusibles y asequibles en la medida necesaria para tener un impacto dramático en la amenaza de deepfakes.
Sin duda, los deepfakes no son *la forma exclusiva de difundir mentiras. Los cheapfakes (métodos de baja tecnología para editar video o audio de manera engañosa) han sido durante mucho tiempo profundamente efectivos en la difusión de desinformación. El 23 de mayo de 2019, un video engañosamente editado de Nancy Pelosi que la hacía parecer borracha o incapacitada [comenzó a circular] (https://www.lawfaremedia.org/article/about-pelosi-video-what-do-about-cheapfakes-2020). El presidente y sus aliados lo tuitearon alegremente a millones de personas a pesar de que el Washington Post ya había desacreditado el video como falso. Pero eso no significa que no tengamos nada que temer de las falsificaciones profundas. Si las falsificaciones baratas fácilmente desacreditadas han demostrado ser tan capaces, se deduce que podemos esperar daños más amplios y profundos de las falsificaciones que son más creíbles a primera vista y más difíciles de detectar en una inspección más cercana.
Aunque es loable, el hecho de que las principales plataformas como Facebook y Twitter hayan prohibido algún tipo de falsificaciones digitales no significa que las falsificaciones profundas inevitablemente serán "relegadas a sitios con muy pocos usuarios para tener un efecto importante". Esas prohibiciones no se implementan de inmediato ni a la perfección. Hay que detectar las falsificaciones y luego juzgarlas como fraudulentas de una manera particular que contraviene la política (algo que no siempre es evidente ni siquiera cuando se detecta una modificación). Incluso entonces, gran parte del daño ya está hecho. Debido a que la vida media de las publicaciones en las redes sociales se mide en horas, el daño de las deepfakes en forma de pornografía no consensuada, desinformación o fraude llegará rápido y furioso, incluso con políticas bien intencionadas y bien ejecutadas. La verdad seca y desacreditadora nunca alcanzará por completo a la mentira candente. Entonces, sí, las deepfakes seguirán "filtrándose en áreas sombrías", como se ha sugerido, pero sus mejores días de impacto a través de plataformas de gran volumen probablemente estén por delante de nosotros, no detrás de nosotros.
Ahora no es el momento de sentarse y cantar victoria sobre las deepfakes o sugerir que la preocupación por ellas es exagerada. El coronavirus ha puesto de relieve el impacto letal de las falsedades creíbles, y se avecinan las elecciones de nuestra vida. Más que nunca, necesitamos confiar en lo que nos dicen nuestros ojos y oídos.