Problema 2761
Bots, trolls, campañas de influencia: parece que todos los días luchamos contra más contenido falso o manipulado en línea. Debido a los avances en el poder de cómputo, algoritmos de aprendizaje automático más inteligentes y conjuntos de datos más grandes, pronto compartiremos el espacio digital con una siniestra variedad de artículos de noticias y podcasts generados por IA, imágenes y videos falsos, todo producido a una escala y velocidad impensables. A partir de 2018, según un estudio, se detectaron en línea menos de 10 000 deepfakes. Hoy en día, la cantidad de deepfakes en línea es casi seguro de millones.
Difícilmente podemos imaginar todos los propósitos que la gente encontrará para este nuevo medio sintético, pero lo que ya hemos visto es motivo de preocupación. Los estudiantes pueden hacer que ChatGPT escriba sus ensayos. Los acosadores pueden crear videos pornográficos con imágenes de las personas con las que están obsesionados. Un delincuente puede sintetizar la voz de su jefe y decirle que transfiera dinero.
Deepfakes corre el riesgo de que las personas vean toda la información como sospechosa.
Los deepfakes plantean no solo riesgos criminales sino también amenazas para la seguridad nacional. Para avivar las divisiones en los EE. UU. en 2020, Rusia utilizó medios convencionales de propaganda, desplegando noticias falsas sobre vacunación e imágenes de destrucción reales pero elegidas selectivamente de las protestas de Black Lives Matter. La tecnología Deepfake llevará tales esfuerzos a un nuevo nivel, permitiendo la creación de una realidad alternativa convincente. En 2022, por ejemplo, Rusia lanzó una cruda falsificación del presidente ucraniano Volodymyr Zelensky llamando a los ucranianos a deponer las armas.
Imagine lo que se podría hacer a medida que la tecnología se vuelve más sofisticada. Los yihadistas que buscan movilizar reclutas podrían mostrar clips convincentes del presidente francés Emmanuel Macron denigrando el Islam. Una invasión china de Taiwán podría comenzar con una falsificación profunda de un comandante naval taiwanés que le dice a las fuerzas bajo su mando que permitan que las fuerzas chinas pasen sin ser molestadas. Las tropas que luchan en una guerra pueden desesperarse después de leer miles de publicaciones divisivas o provocativas Facebook publicadas aparentemente por compañeros soldados pero de hecho generado por ChatGPT. La escala, la velocidad y la verosimilitud de tal guerra de información amenazan con abrumar la capacidad de los militares y los servicios de inteligencia para protegerse contra ella.
Incluso los detectores de falsificaciones más ingeniosos tendrán sus límites, porque los avances en la detección seguramente se utilizarán para mejorar la próxima generación de algoritmos de falsificación profunda.
A nivel nacional, los deepfakes corren el riesgo de que las personas vean toda la información como sospechosa. Es posible que los soldados no confíen en las órdenes reales y que el público piense que los escándalos y los ultrajes genuinos no son reales. Un clima de sospecha generalizada permitirá a los políticos y sus seguidores descartar cualquier cosa negativa que se informe sobre ellos como falsa o exagerada.
La poderosa administración del ciberespacio de China ya ha anticipado tales preocupaciones. En enero, Beijing comenzó a aplicar nuevas y ambiciosas regulaciones sobre contenido ultrafalso, que van desde reglas estrictas que requieren que las imágenes sintéticas de personas se usen solo con el consentimiento de esas personas hasta prohibiciones más orwellianas sobre la "difusión de noticias falsas".
Las sociedades democráticas también deben comenzar a abordar los daños potenciales de las falsificaciones profundas, pero no podemos hacerlo de la misma manera que lo hace China. Necesitamos una respuesta que preserve el libre flujo de ideas y expresión, el intercambio de información que permita a los ciudadanos determinar qué es falso y qué es real. La desinformación es peligrosa precisamente porque socava la noción misma de verdad. Prohibiciones como la de Beijing juegan con este problema al hacer que el discernimiento de la verdad y la falsedad sea una prerrogativa del gobierno, susceptible a la política y la aplicación bruta.
Las opciones para las democracias son complicadas y deberán combinar enfoques técnicos, normativos y sociales. Intel ya ha comenzado a trabajar en el aspecto técnico. En noviembre pasado, los investigadores de la compañía propusieron un sistema llamado FakeCatcher que aseguraba una precisión del 96 % en la identificación de falsificaciones profundas. Ese número es impresionante, pero dado el gran volumen de material sintético que se puede producir, incluso un detector con una precisión del 99% perdería un volumen inaceptable de desinformación. Además, los gobiernos contarán con los servicios de programadores altamente calificados, lo que significa que es probable que sus deepfakes estén entre los menos detectables. Incluso los detectores más ingeniosos tendrán sus límites, porque es casi seguro que los avances en la detección se utilizarán para mejorar la próxima generación de algoritmos de falsificación profunda.
Hay una solución que puede ayudar a los detectores a adelantarse a este ciclo y está relacionada con una técnica que las empresas de redes sociales ya están explorando. Los desarrolladores de tecnología de detección pueden enfocarse menos en el video o la imagen en sí que en cómo se usa mediante la creación de algoritmos que analizan los metadatos y el contexto. Las plataformas de redes sociales actualmente implementan este tipo de herramientas para detectar cuentas falsas utilizadas para lo que algunas plataformas llaman "campañas coordinadas de comportamiento no auténtico", un término que cubre los esfuerzos de Irán, Rusia y otros actores maliciosos para sembrar desinformación o desacreditar a figuras públicas específicas. Tal algoritmo para deepfakes sería capaz de distinguir una pintura deepfake al estilo de Renoir de un ser querido, por ejemplo, de una deepfake que muestra a una celebridad desnuda o a una figura política drogada.
El gobierno de EE. UU. y otras democracias no pueden decirle a su gente qué es verdad o qué no, pero pueden insistir en que las empresas que producen y distribuyen medios sintéticos a escala hagan que sus algoritmos sean más transparentes. El público debe saber cuáles son las políticas de una plataforma y cómo se aplican estas reglas. Incluso se puede exigir a las plataformas que difunden deepfakes que permitan a investigadores externos independientes estudiar los efectos de este medio y monitorear si los algoritmos de las plataformas se comportan de acuerdo con sus políticas.
Deepfakes va a cambiar la forma en que muchas instituciones en las democracias hacen negocios. Las fuerzas armadas necesitarán sistemas muy seguros para verificar los pedidos y asegurarse de que los sistemas automatizados no puedan ser activados por posibles falsificaciones profundas. Los líderes políticos que respondan a las crisis tendrán que incorporar demoras para poder asegurarse de que la información que tienen ante ellos no sea falsa o incluso parcialmente manipulada por un adversario. Los periodistas y editores deberán desconfiar de las noticias impactantes, duplicando el estándar de verificación de hechos con múltiples fuentes. En caso de duda, un medio puede marcar algunas noticias con advertencias brillantes de "esta información no verificada".
En última instancia, es el público el que tendrá que distinguir las fuentes de información que funcionan de buena fe de las que están diseñadas para manipular. Muchas democracias luchan con la alfabetización mediática, pero Finlandia ofrece un ejemplo prometedor. Allí, la alfabetización mediática se incluye en el currículo escolar a partir del preescolar, y las bibliotecas se han convertido en centros para la instrucción de alfabetización mediática para adultos. Finlandia ahora ocupa el primer lugar en el mundo en resiliencia contra la desinformación.
Está en la naturaleza de la democracia que ninguna política por sí sola puede sofocar de manera efectiva la proliferación de desinformación. Para hacer frente al problema, las sociedades libres necesitarán una combinación de esfuerzos y, en contraste con el enfoque del Ministerio de la Verdad de China, deberían dar prioridad a preservar el discurso abierto y respetar el discernimiento de los ciudadanos. La clave es comenzar este proceso antes de que los deepfakes se filtren en nuestros ecosistemas de información y los abrumen. Una vez que lo hagan, la desconfianza y la confusión serán mucho más difíciles de contener.
-Señores. Byman, Meserole y Subrahmanian son coautores (con Chongyang Gao) de un nuevo informe de investigación de la Institución Brookings, "Deepfakes and International Conflict", del cual se adaptó este ensayo.