Problema 2811

El Comando de Operaciones Especiales de EE. UU., responsable de algunos de los esfuerzos militares más secretos del país, se está preparando para realizar campañas de propaganda y engaño en Internet utilizando videos falsos, según los documentos de contratación federal revisados por The Intercept.
Los planes, que también describen la piratería de dispositivos conectados a Internet para escuchar a escondidas a fin de evaluar la susceptibilidad de las poblaciones extranjeras a la propaganda, llegan en un momento de intensa [global] (https://www.un.org/en/cronica/articulo/ cómo-puede-el-multilateralismo-sobrevivir-la-era-la-inteligencia-artificial) sobre campañas de “desinformación” tecnológicamente sofisticadas, su efectividad y la ética de su uso.
Si bien el gobierno de EE. UU. advierte rutinariamente contra el riesgo de falsificaciones profundas y está trabajando abiertamente para crear herramientas para contrarrestarlas, el documento del Comando de Operaciones Especiales, o SOCOM, representa una instancia casi sin precedentes del gobierno de EE. UU., o de cualquier gobierno, señalando abiertamente su deseo. usar la tecnología altamente controvertida de manera ofensiva.
Las aspiraciones de propaganda de la próxima generación de SOCOM se describen en un [documento de adquisición] (https://www.documentcloud.org/documents/23696654-us-socom-procurement-document-anounce-desire-to-utilize-deepfakes) que enumera las capacidades que tiene buscando el futuro cercano y solicitando lanzamientos de partes externas que creen que pueden construirlos.
“Cuando se trata de desinformación, el Pentágono no debería combatir el fuego con fuego”, dijo a The Intercept Chris Meserole, director de la Iniciativa de Tecnología Emergente e Inteligencia Artificial de la Institución Brookings. “En un momento en que la propaganda digital está aumentando a nivel mundial, EE. UU. debería hacer todo lo posible para fortalecer la democracia al generar apoyo para las nociones compartidas de la verdad y la realidad. Los deepfakes hacen lo contrario. Al poner en duda la credibilidad de todo el contenido y la información, ya sea real o sintética, en última instancia, erosionan los cimientos de la democracia misma”.
“Cuando se trata de desinformación, el Pentágono no debería combatir fuego con fuego”.
Meserole agregó: "Si se van a aprovechar los deepfakes para operaciones militares y de inteligencia específicas, entonces su uso debe estar sujeto a revisión y supervisión".
El documento de lanzamiento, publicado por primera vez por la Dirección de Ciencia y Tecnología de SOCOM en 2020, estableció una lista de deseos de juguetes de próxima generación para el comando de fuerzas especiales del siglo XXI, una letanía de dispositivos y herramientas futuristas que ayudarán a los soldados de élite del país de manera más efectiva. cazar y matar a sus objetivos usando láseres, robots, hologramas y otro hardware sofisticado.
En octubre pasado, SOCOM lanzó silenciosamente una versión actualizada de su lista de deseos con una nueva sección: "Tecnologías avanzadas para uso en operaciones de apoyo de información militar (MISO)", un eufemismo del Pentágono para sus esfuerzos globales de propaganda y engaño.
El párrafo agregado explica el deseo de SOCOM de obtener medios nuevos y mejorados para llevar a cabo "operaciones de influencia, engaño digital, interrupción de la comunicación y campañas de desinformación en los niveles tácticos y operativos". SOCOM está buscando "una capacidad de próxima generación para recopilar datos dispares a través de flujos de información públicos y de código abierto, como redes sociales, medios locales, etc. para permitir que MISO elabore e influya directamente en las operaciones".
SOCOM normalmente lucha en las sombras, pero su reputación pública y su huella global cobran gran importancia. Compuesto por las unidades de élite del Ejército, el Cuerpo de Marines, la Marina y la Fuerza Aérea, SOCOM lidera las operaciones militares más delicadas de la nación más letal del mundo.
Si bien las fuerzas especiales estadounidenses son ampliamente conocidas por hazañas ostentosas como el asesinato de Osama bin Laden por parte de los Navy SEAL, su historia es una de misiones secretas, subterfugios, sabotaje y campañas de interrupción. Las ambiciones de desinformación de la "próxima generación" de SOCOM son solo una parte de una larga y vasta historia de esfuerzos de engaño por parte de los aparatos militares y de inteligencia de EE. UU.
El Comando de Operaciones Especiales, que está aceptando propuestas sobre estas capacidades hasta 2025, no respondió a una solicitud de comentarios.
Aunque el Comando de Operaciones Especiales ha coordinado durante años "operaciones de influencia" extranjeras, estas campañas de engaño han estado bajo [escrutinio renovado] (https://www.washingtonpost.com/national-security/2022/09/19/pentagon-psychological-operations -Facebook Twitter/). En diciembre, The Intercept informó que SOCOM había convencido a Twitter, en violación de sus políticas internas, para permitir una red de cuentas falsas que difunden noticias falsas de dudosa precisión, incluida la afirmación de que el gobierno iraní estaba robando los órganos de civiles afganos. Aunque la ofensiva de propaganda basada en Twitter no usó deepfakes, los investigadores descubrieron que los contratistas del Pentágono emplearon avatares generados por aprendizaje automático para dar cierto grado de realismo a las cuentas falsas.
De manera provocativa, el documento de capacidad actualizado revela que SOCOM quiere impulsar estos esfuerzos de engaño en Internet con el uso de videos falsos profundos de "próxima generación", un método cada vez más efectivo para generar falsificaciones de videos digitales realistas utilizando el aprendizaje automático. Las fuerzas especiales utilizarían estas imágenes falsas para “generar mensajes e influir en las operaciones a través de canales no tradicionales”, agrega el documento.
Si bien los deepfakes se han mantenido en gran medida como forraje para el entretenimiento y la pornografía, el potencial para aplicaciones más nefastas es real. Al comienzo de la invasión rusa de Ucrania, comenzó a circular en los canales de las redes sociales una falsificación de mala calidad del presidente ucraniano Volodymyr Zelenskyy ordenando a las tropas que se rindieran. Dejando de lado las consideraciones éticas, la legalidad de las falsificaciones profundas militarizadas en un conflicto, que sigue siendo una [pregunta] abierta (https://lieber .westpoint.edu/deepfakes/), no se aborda en el documento SOCOM.
Al igual que con las campañas de "desinformación" de gobiernos extranjeros, EE. UU. ha pasado los últimos años advertencia contra el potente amenaza a la seguridad nacional representada por deepfakes. El uso de deepfakes para engañar deliberadamente, las autoridades gubernamentales advierten regularmente, podría tener un efecto profundamente desestabilizador en las poblaciones civiles expuestas a ellos.
Sin embargo, a nivel federal, la conversación ha girado exclusivamente en torno a la amenaza que [las falsificaciones profundas de fabricación extranjera] (https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf) podrían representar para los EE. UU. , no al revés. Informado anteriormente documentos de contratación muestran SOCOM ha buscado tecnologías para detectar campañas de Internet aumentadas con deepfake, una táctica que ahora quiere desatar por sí sola.
Quizás tan provocativa como la mención de las falsificaciones profundas es la sección que sigue, que señala que SOCOM desea afinar su propaganda ofensiva aparentemente espiando a la audiencia prevista a través de sus dispositivos conectados a Internet.
Descrito como una "capacidad de próxima generación para 'tomar el control' de los dispositivos de Internet de las cosas (IoT) para recopilar [sic] datos e información de las poblaciones locales para permitir el desglose de los mensajes que podrían ser populares y aceptados a través de la selección de datos una vez recibidos". el documento dice que la capacidad de escuchar a escondidas los objetivos de la propaganda "permitiría a MISO elaborar y promover mensajes que pueden ser recibidos más fácilmente por la población local". En 2017, WikiLeaks publicó archivos robados de la CIA que revelaron una capacidad más o menos similar para secuestrar dispositivos domésticos.
La tecnología detrás de los videos falsos llegó por primera vez en 2017, impulsada por una combinación de hardware de computadora potente y barato y avances en la investigación en el aprendizaje automático. Los videos deepfake generalmente se hacen alimentando imágenes de un individuo a una computadora y utilizando el análisis computarizado resultante para pegar esencialmente un simulacro muy realista de esa cara en otra.
“La capacidad de daño social ciertamente existe”.
Una vez que el software ha sido lo suficientemente entrenado, su usuario puede generar imágenes fabricadas realistas de un objetivo diciendo o haciendo prácticamente cualquier cosa. La facilidad de uso de la tecnología y la precisión cada vez mayor han generado temores de una era en la que el público mundial ya no puede creer lo que ve con sus propios ojos.
Aunque las principales plataformas sociales como Facebook tienen reglas contra las falsificaciones profundas, dada la naturaleza intrínsecamente fluida e interconectada de Internet, el Pentágono- las falsificaciones profundas diseminadas también podrían correr el riesgo de regresar a la patria estadounidense.
"Si se trata de un entorno de medios no tradicionales, puedo imaginar que la forma de manipulación llegue bastante lejos antes de ser detenida o reprendida por algún tipo de autoridad local", dijo a The Intercept Max Rizzuto, un investigador de falsificaciones profundas del Laboratorio de Investigación Forense Digital del Atlantic Council. “La capacidad de daño social ciertamente existe”.
El interés de SOCOM en implementar campañas de desinformación deepfake sigue a los últimos años de ansiedad internacional sobre videos falsificados y engaños digitales de adversarios internacionales. Aunque hay escasa evidencia los esfuerzos de Rusia para influir digitalmente en las elecciones de 2016 tuvieron algún efecto significativo, el Pentágono ha expresado una interés en redoblar sus capacidades de propaganda digital, para que no se quede atrás, [con SOCOM asumiendo un papel crucial] (https://www.militarytimes.com/news/your-military/2019/02/06/socom-needs-to -intensificar-su-juego-de-propaganda-pentágono-diputado-dice/).
En una audiencia de abril de 2018 del Comité de Servicios Armados del Senado, el general Kenneth Tovo del Comando de Operaciones Especiales del Ejército aseguró a los senadores reunidos que las fuerzas especiales estadounidenses estaban trabajando para cerrar la brecha de propaganda.
“Hemos invertido bastante en nuestros operadores de operaciones psicológicas”, dijo, “desarrollando nuevas capacidades, particularmente para lidiar con el espacio digital, el análisis de redes sociales y una variedad de herramientas diferentes que SOCOM ha implementado que nos permiten evaluar el espacio de las redes sociales, evaluar el dominio cibernético, ver el análisis de tendencias, hacia dónde se mueve la opinión y luego cómo influir potencialmente en ese entorno con nuestros propios productos”.
Si bien la propaganda militar es tan antigua como la guerra misma, las falsificaciones profundas se han discutido con frecuencia como un peligro tecnológico sui generis, cuya existencia representa una amenaza para la civilización.
En una audiencia del Comité de Inteligencia del Senado de 2018 que discutió la nominación de William Evanina para dirigir el Centro Nacional de Seguridad y Contrainteligencia, el senador Marco Rubio, republicano por Florida, dijo sobre las falsificaciones profundas: “Creo que esta es la próxima ola de ataques contra Estados Unidos y Occidente”. democracias.” Evanina, en respuesta, aseguró a Rubio que la comunidad de inteligencia de EE. UU. estaba trabajando para contrarrestar la amenaza de las falsificaciones profundas.
Según los informes, el Pentágono también está trabajando arduamente para contrarrestar la amenaza extranjera de falsificación profunda. Según un [informe de noticias] de 2018 (https://www.cbc.ca/news/science/fighting-fake-images-military-1.4905775), la Agencia de Proyectos de Investigación Avanzada de Defensa, la división de investigación tecnológica del ejército, ha gastado decenas de millones de dólares desarrollando métodos para detectar imágenes falsificadas. Esfuerzos similares están en marcha en todo el Departamento de Defensa.
En 2019, Rubio y el senador Mark Warner, D-Va., escribieron a 11 empresas estadounidenses de Internet [instándolas a redactar políticas] (https://www.warner.senate.gov/public/index.cfm/2019/10/ warner-rubio-express-concern-over-growing-threat-posed-by-deepfakes) para detectar y eliminar videos deepfake. “Si el público ya no puede confiar en los eventos o imágenes registrados”, decía la carta, “tendrá un impacto corrosivo en nuestra democracia”.
Dentro de la Ley de Autorización de la Defensa Nacional para el año fiscal 2021 había una directiva que instruía al Pentágono a completar una "evaluación de inteligencia de la amenaza que representan los gobiernos extranjeros y los actores no estatales que crean o usan medios manipulados por máquinas (comúnmente conocidos como 'falsificaciones profundas'). ')”, incluido “cómo se han utilizado o podrían utilizarse dichos medios para llevar a cabo una guerra de información”.
Solo un par de años después, las fuerzas especiales estadounidenses parecen estar preparándose para hacer lo mismo.
"Es una tecnología peligrosa", dijo Rizzuto, investigador del Atlantic Council.
“No se puede moderar esta tecnología de la misma manera que abordamos otros tipos de contenido en Internet”, dijo. “Los deepfakes como tecnología tienen más en común con las conversaciones sobre la no proliferación nuclear”.