Incidentes Asociados

Una red de propaganda con base en Moscú llamada "Pravda" se ha infiltrado sistemáticamente en sistemas de inteligencia artificial (IA) en todo el mundo, incorporando desinformación rusa en las principales herramientas de IA generativa, según ha revelado una auditoría de NewsGuard (https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global).
La auditoría descubrió que los chatbots de IA repetían afirmaciones falsas de la red pro-Kremlin Pravda el 33% del tiempo, lo que demuestra una vulnerabilidad significativa en la capacidad de los modelos de IA para filtrar contenido engañoso.
La IA como un nuevo campo de batalla para la desinformación
A diferencia de las campañas de desinformación tradicionales que se dirigen a audiencias humanas, la red Pravda parece estar optimizada para manipular chatbots de IA. Al inundar los motores de búsqueda con narrativas inventadas y afirmaciones falsas, la red garantiza que los modelos de IA entrenados con datos disponibles públicamente absorban y reproduzcan la desinformación respaldada por el Kremlin.
La investigación de NewsGuard examinó diez chatbots de IA líderes, incluidos ChatGPT-4o de OpenAI, Gemini de Google, Copilot de Microsoft, Meta AI y Grok de xAI. Cuando se probaron con 15 narrativas falsas específicas, estos sistemas de IA no solo repitieron la desinformación sino que, en algunos casos, citaron directamente fuentes de la red Pravda como medios de comunicación legítimos.
La escala de esta operación es extensa. La red Pravda produjo 3,6 millones de artículos solo en 2024 y opera en 150 dominios en varios idiomas, dirigidos a 49 países. Si bien sus sitios web reciben un tráfico humano directo mínimo, su objetivo principal parece ser influir en los modelos de IA en lugar de generar una base de lectores orgánica.
Cómo se integra la desinformación de Pravda en los modelos de IA
La red Pravda no crea contenido original, sino que agrega y amplifica las narrativas del Kremlin republicando historias de los medios estatales rusos, personas influyentes pro-Kremlin y agencias gubernamentales. Esto permite que los modelos de IA entrenados en grandes conjuntos de datos de Internet incorporen estas narrativas, presentándolas sin saberlo como hechos.
Una de las figuras clave que promueve esta estrategia es John Mark Dougan, un fugitivo estadounidense que se ha convertido en un propagandista pro-Kremlin con base en Moscú. En una conferencia de 2025 a la que asistieron funcionarios rusos, Dougan declaró: “Al impulsar estas narrativas rusas desde la perspectiva rusa, podemos realmente cambiar la IA mundial”.
Sus comentarios coinciden con los hallazgos de la auditoría de NewsGuard, que confirma que los modelos de IA dependen cada vez más de las narrativas con influencia rusa debido a la “preparación LLM” sistemática, un método para influir en los grandes modelos lingüísticos saturando sus datos de entrenamiento con contenido específico.
El alcance global de la manipulación de inteligencia artificial de Pravda
La red Pravda se extiende mucho más allá de Rusia y opera en numerosos idiomas y regiones. Aproximadamente 40 de sus sitios web publican en ruso y apuntan a Ucrania a través de dominios como News-Kiev.ru y Donetsk-News.ru. Alrededor de 70 sitios se dirigen a Europa y publican en inglés, francés, checo, irlandés y finlandés, mientras que otros atienden a audiencias en África, Oriente Medio y Asia.
Un análisis de Viginum, una agencia del gobierno francés que monitorea la desinformación extranjera, rastreó las operaciones de la red hasta TigerWeb, una empresa de TI con sede en Crimea vinculada a Yevgeny Shevchenko, un desarrollador web con vínculos con la administración de Crimea respaldada por Rusia. Viginum confirmó que la red cumple con los criterios de “interferencia digital extranjera”.
Susceptibilidad de los sistemas de IA a la desinformación
El estudio de NewsGuard descubrió que los principales modelos de IA repetían la desinformación rusa el 33,55% de las veces, proporcionaban una respuesta no válida el 18,22% de las veces y desacreditaban con éxito la desinformación en el 48,22% de los casos. El fracaso de estos modelos para filtrar las narrativas respaldadas por el Kremlin plantea importantes riesgos políticos y sociales.
En un caso, cuando se les pidió que dijeran la afirmación falsa de que el presidente ucraniano Volodymyr Zelensky había prohibido Truth Social de Donald Trump en Ucrania, seis modelos de IA repitieron la historia inventada, a menudo citando fuentes afiliadas a Pravda. Otra afirmación falsa, que los combatientes del Batallón Azov de Ucrania quemaron una efigie de Trump, fue propagada de manera similar por cuatro de los chatbots probados.
Los desafíos de filtrar la desinformación de la IA
La estrategia de la red Pravda de lanzar continuamente nuevos dominios dificulta que las empresas de IA bloqueen la desinformación en su origen. Además, dado que la red republica principalmente narrativas alineadas con el Kremlin en lugar de crear contenido original, la eliminación de sus sitios no elimina la propagación de afirmaciones falsas.
El presidente ruso, Vladimir Putin, ha reconocido la importancia de la IA en la guerra de la información. En una conferencia sobre IA de 2023 en Moscú, criticó los modelos generativos de IA occidentales por su enfoque "sesgado" y prometió una mayor inversión en el desarrollo de la IA rusa.
Abordar la vulnerabilidad de la IA a la desinformación
Los expertos advierten que si las empresas de IA no toman medidas proactivas para detectar y contrarrestar la influencia de las redes de desinformación, las respuestas generadas por IA seguirán siendo explotadas como herramientas de propaganda extranjera. Entre las posibles soluciones se encuentran mecanismos de filtrado mejorados, mayor transparencia en los datos de entrenamiento de la IA y asociaciones con verificadores de hechos independientes para verificar el contenido generado por la IA.
A medida que la IA generativa se convierte en una fuente de información cada vez más dominante, su susceptibilidad a la desinformación presenta un desafío crítico para los responsables de las políticas, los desarrolladores de IA y el público. Sin intervención, la IA puede convertirse en un amplificador involuntario de la propaganda respaldada por el Estado, reconfigurando el discurso global de maneras que sirvan a intereses autoritarios.