Incidentes Asociados

En el período previo a la invasión rusa de Ucrania, y durante todo el conflicto en curso, las redes sociales han servido como campo de batalla para que actores estatales y no estatales difundan narrativas contrapuestas sobre la guerra y retraten el conflicto en sus propios términos. A medida que la guerra se prolonga, estos ecosistemas digitales se han visto inundados de desinformación. Las campañas de propaganda estratégica, incluidas las que venden desinformación, no son en absoluto nuevas [durante la guerra](https://carnegieeurope.eu/2019/11/28/wars-of-ideas-hybrid-warfare-political-interference-and-disinformation -pub-80419), pero el cambio hacia las redes sociales como principal canal de distribución está transformando la forma en que se libra la guerra de información, así como quién puede participar en las conversaciones en curso para dar forma a las narrativas emergentes. Examinar la dinámica subyacente de cómo la información y la desinformación están impactando la guerra en Ucrania es crucial para darle sentido al conflicto actual y trabajar para lograr soluciones. Con ese fin, este informe de FP Analytics descubre tres componentes críticos: cómo se aprovechan las plataformas de redes sociales para difundir desinformación y narrativas nacionales contrapuestas; El papel de la inteligencia artificial (IA) en la promoción y potencialmente en la lucha contra la desinformación; y El papel de las empresas de redes sociales y las políticas gubernamentales para limitar la desinformación. El papel de las redes sociales y las campañas nacionales de desinformación ----------------------------------------- --------------------- Rusia y Ucrania utilizan ampliamente las redes sociales para retratar sus versiones de los acontecimientos que se desarrollan y amplificar narrativas contrastantes sobre la guerra, incluidas sus causas. consecuencias y continuación. [Funcionarios] gubernamentales (https://www.nytimes.com/2022/03/25/world/europe/ukraine-war-social-media.html), [ciudadanos] individuales (https://www.washingtonpost.com /world/interactive/2022/ukraine-russia-war-videos-verified/), y [agencias estatales](https://www.propublica.org/article/infamous-russian-troll-farm-appears-to-be -fuente-de-propaganda-anti-ucrania) y todos han recurrido a una variedad de plataformas, incluidas Facebook, Twitter, TikTok, YouTube y Telegram, para [subir](https://www.cigionline.org/articles/ la guerra-en-las-redes-sociales-se-está-inventando-en-ucrania/) información. Es difícil determinar la cantidad exacta de contenido subido por estos diversos actores, pero la escala de información que se sube a las redes sociales sobre la guerra es inmensa. Por ejemplo, solo en la primera semana de la guerra, videos de diversas fuentes en TikTok con la etiqueta #Rusia y #Ucrania habían acumulado 37,2 mil millones y 8,5 mil millones de [vistas](https://www.reuters.com/world /europe/facebook-is-letting-users-ukraine-lock-their-social-profiles-security-2022-02-24/), respectivamente. En esencia, las narrativas presentadas por Rusia y Ucrania son diametralmente opuestas. Rusia fotogramas la guerra en Ucrania, que Putin insiste es una "operación militar especial", como medida defensiva necesaria en respuesta a la expansión de la OTAN en Europa del Este. Putin también plantea la campaña militar como necesaria para "desnazificar" Ucrania y poner fin a una supuesta genocidio que está llevando a cabo el gobierno ucraniano contra los hablantes de ruso. En contraste, la narrativa de Ucrania insiste en que la guerra es de agresión, enfatiza su historia como una nación soberana distinta de Rusia y [retrata](https://uscpublicdiplomacy.org/blog/glory-heroes-ukraine%E2%80%99s -guerra-narrativa-credibilidad) a sus ciudadanos y fuerzas armadas como héroes defendiéndose de una invasión injustificada. Ucrania y Rusia no son los únicos actores estatales interesados y comprometidos en retratar la guerra en sus propios términos. Países como China y [Bielorrusia](https://www.mandiant .com/resources/unc1151-linked-to-belarus-government) han participado en esfuerzos para retratar el conflicto en sus propios términos y han lanzado campañas coordinadas de desinformación en plataformas de redes sociales. Estas campañas han restado importancia en términos generales a la responsabilidad de Rusia en la guerra y han promovido anti -A NOSOTROS. y puestos anti-OTAN. La mezcla de narrativas, tanto verdaderas como falsas, [originarias](https://eu.boell.org/en/2022/03/01/laptop-generals-and-bot-armies-digital-front-russias-ukraine- guerra) de diferentes actores estatales, así como de millones de usuarios individuales en las redes sociales, ha ampliado el papel de las plataformas tecnológicas en la configuración de la dinámica de la guerra y podría influir en sus resultados. La escala de información cargada en las redes sociales y la velocidad con la que prolifera crean desafíos novedosos y complejos para combatir las campañas de desinformación. A menudo es difícil identificar el origen de una campaña o su alcance, lo que complica los esfuerzos para eliminar contenido falso en masa o identificar publicaciones falsas antes de que lleguen a audiencias masivas. Por ejemplo, la campaña de desinformación activa "Ghostwriter", atribuido al gobierno bielorruso, utiliza una sofisticada red de servidores proxy y virtuales redes privadas (VPN), lo que le permitió evitar la detección durante años. Antes de que se descubriera la operación en julio de 2021, hackeó las cuentas de redes sociales de Figuras políticas y medios de comunicación europeos y difunden [contenido fabricado] (https://www.state.gov/wp-content/uploads/2020/08/Pillars-of-Russia%E2%80%99s-Disinformation-and-Propaganda -Ecosystem_08-04-20.pdf) crítico con la Organización del Tratado del Atlántico Norte (OTAN) en toda Europa del Este. El nivel de sofisticación que poseen este tipo de campañas modernas de desinformación respaldadas por el Estado hace que sean extremadamente difíciles de detectar tempranamente y contrarrestarlas de manera efectiva. Rusia, en particular, ha pasado décadas desarrollando un [ecosistema de propaganda](https://www.npr.org/2020/06/16/878169027/study-exposes-russia-disinformation-campaign-that-operated-in-the -sombras-para-6-) de los canales de comunicación oficiales y proxy, que utiliza para lanzar campañas de desinformación de amplio alcance. Por ejemplo, la "Operación Infección Secundaria", una de las campañas en curso más largas de Rusia, ha difundido desinformación sobre temas como el COVID-19. pandemia en más de 300 plataformas de redes sociales desde 2014. La variedad de plataformas de redes sociales en uso y la variación en su disponibilidad en diferentes países dificultan la capacidad de coordinar esfuerzos para combatir la desinformación, al tiempo que crean diferentes ecosistemas de información en todas las geografías. Las narrativas sobre la guerra que surgen en las redes sociales adoptan diferentes formas, según la plataforma y la región, incluso dentro de Rusia y Ucrania. Facebook y Twitter están prohibidos dentro de las fronteras de Rusia, pero Rusia La propaganda y la desinformación dirigidas a audiencias externas todavía florecen en estas plataformas. Dentro de Rusia, YouTube y TikTok todavía son accesibles para los ciudadanos comunes, pero con mucho censura. La plataforma de redes sociales más popular utilizada en Rusia es VKontakte (VK), que alberga el [90 por ciento](https://www.newsweek.com/russia-vk-anti-war-messages-defy-vladimir-putin-ukraine- censors-1689518) de usuarios de Internet en Rusia, según las estadísticas proporcionadas por la propia empresa. Anteriormente estuvo disponible y fue ampliamente utilizado en Ucrania hasta 2017, pero el gobierno ucraniano [lo bloqueó](https://www.theguardian.com/world/2017/may/16/ukraine-blocks-popular-russian-websites-kremlin- guerra de roles) acceso a VK y otras redes sociales rusas como Yandex en un esfuerzo por combatir la propaganda rusa en línea. En 2020, el presidente ucraniano Volodymyr Zelenskyy amplió la prohibición de VK hasta 2023, por lo que no ha facilitado las comunicaciones entre rusos y ucranianos durante toda la guerra de este año. Las restricciones impuestas por el gobierno a estas importantes plataformas de redes sociales dejan a Telegram como la principal plataforma de redes sociales actualmente accesible tanto para rusos como para ucranianos. Telegram es un servicio de mensajería cifrada creado y propiedad del multimillonario tecnológico ruso Pavel Durov, que se utiliza en la guerra por todo, desde conectar a los refugiados ucranianos con oportunidades de paso seguro y proporcionar videos casi en tiempo real de los acontecimientos en el campo de batalla. Fundamentalmente, en la lucha contra la desinformación, Telegram no tiene políticas oficiales para censurar o eliminar contenido de cualquier naturaleza. Si bien se han cerrado algunos canales en Telegram, la compañía no publica declaraciones oficiales sobre el motivo y, en general, permite que la mayoría del contenido publicado por los usuarios continúe circulando, independientemente de su naturaleza. Esto permite que Telegram sirva como una [fuente de desinformación] prácticamente sin filtrar(https://foreignpolicy.com/2022/02/24/russia-ukraine-attack-social-media-telegram/) dentro de Rusia y Ucrania y llegue a audiencias que Las plataformas de redes sociales occidentales han sido aisladas. Si bien Telegram no filtra contenido como muchas otras plataformas, tampoco utiliza un algoritmo para impulsar ciertas publicaciones y depende de la mensajería directa entre usuarios. Este diseño dificulta que las herramientas de inteligencia artificial impulsen eficazmente la desinformación. Por el contrario, en otras plataformas como Twitter y Facebook, la IA está permitiendo aún más la rápida difusión de desinformación sobre la guerra. El impacto de la inteligencia artificial en las campañas de desinformación online ----------------------------------------- ------------------------------- La IA y sus subcomponentes, como los algoritmos y el aprendizaje automático, sirven como herramientas poderosas para generar y amplificar la desinformación sobre la guerra entre Rusia y Ucrania, particularmente en los canales de redes sociales. Los algoritmos subyacentes que utilizan las plataformas de redes sociales para determinar qué contenido está permitido y qué publicaciones son las más vistas están generando diferencias en la percepción de los usuarios sobre los eventos que se desarrollan. Antes de la guerra, existía una importante controversia sobre cómo las plataformas de redes sociales priorizaban y controlaban el contenido sobre todo tipo de cuestiones políticas y sociales. En los últimos años, tanto Facebook como [YouTube](https://www.mediamatters.org/ben -shapiro/how-youtube-facilitates-right-wing-radicalization) han sido objeto de [escrutinio](https://www.cnn.com/2021/04/27/media/social-media-algorithms-reliable-sources/ index.html) de los reguladores de EE. UU. y UE, preocupados porque sus algoritmos priorizan el contenido extremista y por no eliminar adecuadamente desinformación a pesar de algunas mejoras en los procedimientos automatizados y dirigidos por humanos. A lo largo de la guerra entre Rusia y Ucrania, han surgido preocupaciones similares en una variedad de plataformas. Por ejemplo, los investigadores descubrieron que los usuarios de TikTok dirigieron a información falsa sobre la guerra en 40 minutos de registrarse. A los nuevos usuarios de TikTok se les mostraron videos [afirmando] (https://www.theguardian.com/technology/2022/mar/21/tiktok-algorithm-directs-users-to-fake-news-about-ukraine-war-study -dice) que una conferencia de prensa dada por Vladimir Putin en marzo de 2020 fue retocada con Photoshop y que los clips de un videojuego eran imágenes reales de la guerra. Del mismo modo, el algoritmo de Facebook promovió habitualmente la desinformación sobre la guerra, incluida la teoría de la conspiración de que Estados Unidos está financiando armas biológicas en Ucrania. Un estudio del Centro para Contrarrestar el Odio Digital (CCDH) encontró que Facebook no logró etiquetar 80 por ciento de publicaciones que difunden esta teoría de la conspiración sobre las armas biológicas financiadas por Estados Unidos como desinformación. Las plataformas de redes sociales también albergan herramientas populares basadas en inteligencia artificial para difundir desinformación, como [chatbots](https://www.technologyreview.com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by -using-more-ai-thats-a-mistake/) y [deepfakes](https://www.infosysbpm.com/blogs/business-transformation/ai-powered-deep-fakes-how-to-identify-them .html). Los bots (programas informáticos habilitados para inteligencia artificial que imitan las cuentas de los usuarios en las redes sociales) son una de las formas más efectivas de difundir la desinformación sobre la guerra. Rusia tiene una amplia experiencia en el uso eficaz de robots para difundir desinformación. Por ejemplo, las agencias gubernamentales rusas y sus afiliados los utilizaron anteriormente para difundir desinformación durante las [elecciones de 2016] en EE. UU. (https://www.npr.org/sections/alltechconsidered/2017/04/03/522503844/how-russian -twitter-bots-pumped-out-fake-news-during-the-2016-election) así como durante la [pandemia de COVID-19](https://metro.co.uk/2021/07/10/how -los-bots-pro-kremlin-están-alimentando-las-teorías-de-conspiración-covid-19-14867186/). Rusia continúa usando bots, y desde el comienzo de la guerra En Ucrania a principios de este año, Twitter informó que había eliminado al menos 75.000 [cuentas falsas] sospechosas (https://www.engadget.com/twitter-misinformation-ukraine-labeling-004254942.html) vinculadas a robots rusos en línea para [difundir] (https://www.abc.net.au/news/science/2022-03-30/ukraine-war-twitter-bot-network-amplifies-russian-disinformation/100944970) desinformación sobre Ucrania. Sin embargo, la escala y la velocidad a la que se puede producir y difundir desinformación utilizando bots hacen que sea casi imposible monitorear o eliminar todas las cuentas y publicaciones falsas. Además de los bots, durante todo el conflicto han circulado en línea deepfakes (videos que utilizan inteligencia artificial para crear imágenes y audio falsos de personas reales). A partir de marzo de 2022, deepfakes que retratan a Vladimir Putin y Volodymyr Zelenskyy dando declaraciones inventadas sobre la guerra han aparecido repetidamente en las redes sociales. Un deepfake de Vladimir Putin declarando la paz circuló ampliamente a través de Twitter, antes de ser eliminado, mientras que un deepfake que retrataba a Volodymyr Zelenskyy circuló en YouTube y Facebook. Más allá de los deepfakes, los expertos han expresado [preocupación](https://www.technologyreview.com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by-using-more-ai-thats- a-error/) que la IA podría aprovecharse para técnicas de desinformación más sofisticadas. Estos incluyen el uso de IA para identificar mejor los objetivos de las campañas de desinformación, así como el uso de técnicas como Procesamiento del lenguaje natural (NLP), que permite a la IA producir redes sociales falsas. publicaciones, artículos y documentos de los medios que son casi indistinguibles de los de carteles humanos. Si bien la IA está contribuyendo a la difusión de la desinformación en las redes sociales, las herramientas de IA también son prometedoras para combatirla. El gran volumen de información que se carga diariamente en las redes sociales hace que sea esencial desarrollar herramientas de inteligencia artificial que puedan identificar y eliminar con precisión la desinformación. Por ejemplo, los usuarios de Twitter subir realizan más de 500.000 publicaciones por minuto, mucho más de lo que los censores humanos pueden monitorear. Las plataformas de redes sociales están comenzando a combinar censores humanos con inteligencia artificial para monitorear la información falsa de manera más efectiva. Facebook desarrolló una herramienta de inteligencia artificial llamada SimSearchNet al comienzo de la pandemia de COVID-19. 19 pandemia para identificar y eliminar publicaciones falsas. SimSearchNet se basa en monitores humanos para identificar primero publicaciones falsas y luego utiliza inteligencia artificial para identificar publicaciones similares en toda la plataforma. Las herramientas de inteligencia artificial son significativamente más efectivas que los moderadores de contenido humanos por sí solos. Según Facebook, el 99,5 por ciento de las eliminaciones de contenido relacionado con el terrorismo y el 98,5 por ciento de las cuentas falsas se identifican y eliminan principalmente [usando](https://op.europa.eu/en/publication-detail/-/publication/b8722bec-81be -11e9-9f05-01aa75ed71a1) IA entrenada con datos de sus equipos de moderación de contenido. Actualmente, la IA destinada a combatir la desinformación en las redes sociales todavía depende de elementos tanto humanos como informáticos. Esto limita la capacidad de la IA para detectar nuevas piezas de información errónea y desinformación, y significa que las publicaciones falsas llegan rutinariamente a grandes audiencias antes de que sean identificadas y eliminadas mediante la IA. Las limitaciones técnicas actuales para poder identificar y eliminar de manera proactiva información falsa, combinadas con la escala de información cargada en línea, plantean un desafío continuo para limitar la desinformación en las redes sociales en la guerra entre Rusia y Ucrania y más allá. Políticas de desinformación gubernamentales y de redes sociales -------------------------------------------- ------- Las empresas de redes sociales y los gobiernos han promulgado una serie de políticas para limitar la difusión de desinformación, pero su aplicación se ha fragmentado, según la plataforma y la geografía, con efectos variables. Las diferentes políticas que aplican las plataformas de redes sociales, el alcance de sus esfuerzos para combatir la desinformación y su disponibilidad dentro de los países ayudan a moldear la forma en que el público entiende la guerra entre Rusia y Ucrania. Fundamentalmente, las empresas de redes sociales están controladas de forma privada y sus intereses pueden o no estar alineados con diversos intereses estatales, incluidos los estados donde estas empresas están registradas y tienen su sede, así como otros. En la guerra entre Rusia y Ucrania, las empresas de redes sociales han tomado una serie de medidas diferentes. Facebook está desplegando una red de verificadores de datos en Ucrania en un intento por eliminar la desinformación. y YouTube ha bloqueado canales asociados con el idioma ruso. medios estatales a nivel mundial. Ambas plataformas promulgaron restricciones más allá de los requisitos legales bajo las sanciones de Estados Unidos y la UE a Rusia. Por el contrario, Telegram y TikTok no han tomado medidas tan significativas para limitar desinformación en su plataforma, más allá de cumplir con Sanciones de la UE a los medios estatales rusos dentro de la UE. Las diferencias en las respuestas entre las plataformas reflejan las presiones gubernamentales y públicas a las que están sujetas las distintas plataformas. En general, las plataformas con sede en Estados Unidos han adoptado posturas más estrictas para limitar la desinformación rusa que sus homólogas internacionales, como Telegram y TikTok. La diferencia en las políticas de las plataformas de redes sociales, sus esfuerzos por limitar la desinformación y su acceso geográfico se están convirtiendo en poderosos impulsores no solo de cómo los individuos consumen noticias sobre la guerra entre Rusia y Ucrania a nivel mundial, sino también de las narrativas, incluida la información y la desinformación. y la desinformación a la que están expuestos y, por tanto, las opiniones que pueden adoptar. El papel cada vez mayor de los canales de redes sociales en la configuración de narrativas sobre cuestiones geopolíticas, incluidos los conflictos, está generando rechazo por parte de los gobiernos, tanto democráticos como autocráticos. Esto, a su vez, ha contribuido a la tendencia de algunos gobiernos a imponer restricciones al uso público de las redes sociales e Internet en general. Por ejemplo, Rusia ha restringido su actividad en Internet desde 2012, pero ha aumentado la intensidad de su represión contra los disidentes, en línea disidencia y cobertura mediática independiente antes y después de la invasión de Ucrania. Rusia aprobó recientemente nuevas leyes dirigidas a las empresas extranjeras de Internet, como la [Ley Soberana de Internet] de 2019 (https://www.hrw.org/news/2020/06/18/russia-growing-internet-isolation-control-censorship) y la "[Ley de Aterrizaje](https://www.cliffordchance.com/content/dam/cliffordchance/briefings/2021/10/2110_Client%20Briefing%20-%20Landing%20Law%20-%20New%20rules%20of %20the%20game.pdf)" firmada en junio de 2021. Estas leyes otorgan al Estado ruso amplios poderes de vigilancia en línea y exigen que las empresas extranjeras de Internet que operan en Rusia abran oficinas dentro del país. Además, Rusia ha prohibido Facebook, Twitter e Instagram dentro de sus fronteras. Ucrania tomó medidas enérgicas sobre la expresión en línea a finales de 2021, en respuesta a los temores de que Rusia estuviera patrocinando a los medios de comunicación ucranianos y preparándose para invadir. Sin embargo, desde el comienzo de la invasión, Ucrania ha adoptado abiertamente las redes sociales como medio para difundir mensajes fuera de sus fronteras y obtener [apoyo] público (https://www.nytimes.com/2022/03/25/world /europe/ukraine-war-social-media.html) por sus esfuerzos de resistencia. A nivel mundial, esto sigue una serie de tendencias existentes, incluidos los esfuerzos regulatorios de numerosos países para hacer cumplir la soberanía digital y de datos. Una serie de países están intentando ahora regular las redes sociales medios y restringir el discurso en línea a nivel nacional, mientras se utilizan estas mismas plataformas para forma narrativas a nivel internacional. Por ejemplo, China, [Irán](https://www.reuters.com/article/us-cyber-iran-specialreport/ informe-especial-cómo-iran-difunde-la-desinformación-en-el-mundo-idUSKCN1NZ1FT), y [India](https://tribune.com.pk/story/2335695/how-india-unleashed-targeted-social- campañas-de-medios-contra-pakistán), han promulgado leyes restrictivas sobre el uso de Internet y las redes sociales a nivel nacional y, al mismo tiempo, han utilizado canales de redes sociales para difundir campañas de desinformación específicas a nivel mundial. La eficacia de los esfuerzos de los gobiernos a nivel mundial para limitar el acceso a las redes sociales y prevenir la desinformación, tanto en la guerra entre Rusia y Ucrania como en general, ha sido limitada hasta ahora. Los esfuerzos regulatorios no han frenado la desinformación en de manera sólida y sistemática, ni reinaron en el papel de las plataformas de redes sociales como dominios de polarización política e interacciones sociales vitriólicas. Si bien los gobiernos han sido más eficaces a la hora de limitar el acceso a la información dentro de sus jurisdicciones nacionales, muchas personas todavía pueden eludir las restricciones a través de redes privadas virtuales (VPN). Estas redes permiten a los usuarios ocultar el origen de la conexión a Internet y ofrecen acceso a sitios web que pueden estar bloqueados dentro de las fronteras de un país específico. Después de la invasión rusa de Ucrania, las descargas de VPN dentro de Rusia aumentaron a más de 400.000 por día, lo que ilustra el alcance del desafío de bloquear completamente el acceso a los espacios en línea. De cara al futuro ------------- Las estrategias técnicas y regulatorias para combatir la desinformación están evolucionando rápidamente, pero aún se encuentran en sus primeras etapas. En los conflictos modernos, las plataformas de redes sociales controlan algunos de los principales canales de información y sus políticas pueden tener un efecto enorme en el sentimiento público. En el conflicto Rusia-Ucrania, las plataformas de redes sociales más grandes del mundo han acordado ampliamente intentar limitar mensajes de propaganda rusa, pero han impuesto muchas menos restricciones al contenido oficial de el gobierno ucraniano. Este tipo de poder amplio que ejercen las empresas de redes sociales al elegir qué voces se amplifican durante los conflictos está impulsando a los gobiernos a presionar para lograr un mayor control sobre estos canales de información. Entre otros, China, Rusia e Irán tienen restricciones onerosas sobre el contenido que se puede publicar en línea y han prohibido la mayoría de los EE.UU. empresas de redes sociales basadas en Además, tanto Rusia como China están tomando medidas para trasladar a sus poblaciones a canales de redes sociales nacionales, como WeChat en China o VKontakte en Rusia, que pueden ser fuertemente censurados, además de una intensa supervisión e interferencia gubernamentales. La UE y India también han impuesto restricciones regulatorias a las plataformas de redes sociales con sede en EE. UU., con la intención de [desarrollar](https:// www.nytimes.com/2020/02/19/business/europe-digital-economy.html) sus propias plataformas nacionales. Estos desarrollos crean desafíos para las plataformas de redes sociales internacionales existentes y continúan complicando los esfuerzos para combatir la desinformación. A medida que los canales de redes sociales se fragmentan más y los usuarios están sujetos a diferentes políticas que restringen el contenido y la desinformación, será cada vez más necesario coordinar de manera coherente los esfuerzos para combatir la desinformación en todas las plataformas. difícil.