Incidentes Asociados

Una red de desinformación con sede en Rusia ha logrado infectar con desinformación a favor del Kremlin a muchos de los chatbots de IA más populares del mundo, según un nuevo informe de NewsGuard.
En lugar de dirigirse directamente a los lectores con propaganda, la red publica millones de artículos en diferentes idiomas, difundiendo sus narrativas por la web con la esperanza de que se incorporen como datos de entrenamiento para modelos de lenguaje de gran tamaño (LLM) como ChatGPT de OpenAI o Grok de xAI. NewsGuard denominó esta práctica "preparación de IA".
La red a favor del Kremlin, conocida como Pravda (verdad en ruso), surgió poco después de la invasión rusa de Ucrania en 2022 y ha crecido gradualmente hasta alcanzar aproximadamente 150 sitios web.
NewsGuard auditó 10 de los chatbots de IA más populares: ChatGPT-4o de OpenAI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Gemini de Google y el motor de respuestas de Perplexity. NewsGuard consultó a los chatbots sobre 15 narrativas prorrusas promovidas por una red de sitios web de Pravda desde el inicio de la guerra.
Por ejemplo, NewsGuard afirma que cuatro de los 10 chatbots evaluados regurgitaron afirmaciones de que miembros del Batallón Azov ucraniano quemaron efigies del presidente Trump, citando artículos de la red de desinformación como fuentes.
Otras afirmaciones falsas difundidas por la red Pravda y que NewsGuard utilizó en este análisis incluyeron afirmaciones de la policía francesa sobre que un funcionario del Ministerio de Defensa del presidente ucraniano Zelenski robó 46 millones de dólares y que Zelenski gastó personalmente 14,2 millones de euros de fondos militares occidentales para comprar un famoso refugio rural alemán frecuentado por Adolf Hitler.
La red de desinformación logró influir eficazmente en muchos de estos chatbots convencionales con un alcance orgánico prácticamente nulo. Pravda-en.com, un sitio web en inglés dentro de la red, solo registró un promedio de 955 visitantes únicos mensuales.
Sin embargo, la operación se centró en saturar los resultados de búsqueda con un enorme volumen de contenido. El informe del American Sunlight Project (ASP) reveló que, en promedio, la red publica 20.273 artículos cada 48 horas, o aproximadamente 3,6 millones al año.
Sin embargo, el impacto de la desinformación rusa varió considerablemente según el chatbot analizado por los investigadores. Un chatbot citó información el 55 % de las veces tras ser presentado con las narrativas falsas, mientras que otro lo hizo poco más del 6 %. (NewsGuard no reveló qué chatbot en particular estaba detrás de cada resultado).
Las altas esferas del liderazgo ruso ya han debatido abiertamente la importancia de controlar las narrativas de los modelos de IA y los motores de búsqueda.
El presidente ruso, Vladímir Putin, declaró en una conferencia de 2023 que la IA "creada según los estándares y patrones occidentales podría ser xenófoba" y que "los motores de búsqueda y los modelos generativos occidentales suelen funcionar de forma muy selectiva y sesgada".
La desinformación rusa en línea no es nueva, pero la IA se utiliza de formas cada vez más creativas para la propaganda. OpenAI ha destacado cuentas chinas vinculadas que utilizan ChatGPT para producir artículos de propaganda desde cero para su publicación en los principales periódicos latinoamericanos.
Mientras tanto, muchas publicaciones legítimas han bloqueado a los LLM para que no copien sus artículos, argumentando que se lucran con el contenido robado. Algunas, como The New York Times, han presentado una demanda. Otras han conseguido acuerdos con empresas de inteligencia artificial para usar su información.