Incidentes Asociados
Rusia está automatizando la difusión de información falsa para engañar a los chatbots de inteligencia artificial sobre temas clave, ofreciendo así una guía a otros actores maliciosos sobre cómo manipular la IA para impulsar contenido destinado a inflamar, influenciar y ofuscar en lugar de informar.
Los expertos advierten que el problema se agrava a medida que más personas recurren a los chatbots lanzados rápidamente al mercado, las empresas de redes sociales reducen la moderación y la administración Trump disuelve los equipos gubernamentales que luchan contra la desinformación.
A principios de este año, cuando investigadores preguntaron a 10 chatbots líderes sobre temas objeto de mensajes falsos rusos, como la afirmación de que Estados Unidos estaba fabricando armas biológicas en Ucrania, un tercio de las respuestas repitieron esas mentiras.
La incursión propagandística de Moscú pone de relieve una debilidad fundamental de la industria de la IA: las respuestas de los chatbots dependen de los datos que se les introducen. Un principio rector es que cuanto más lean los chatbots, más informadas serán sus respuestas, razón por la cual la industria está ávida de contenido. Pero cantidades masivas de información engañosa bien dirigida pueden sesgar las respuestas sobre temas específicos. Para Rusia, eso es la guerra en Ucrania. Pero para un político, podría ser un oponente; para una empresa comercial, podría ser un competidor.
"La mayoría de los chatbots tienen dificultades con la desinformación", afirmó Giada Pistilli, experta en ética principal de la plataforma de inteligencia artificial de código abierto Hugging Face. "Cuentan con protecciones básicas contra contenido dañino, pero no pueden detectar con fiabilidad la propaganda sofisticada, [y] el problema se agrava con los sistemas de búsqueda aumentada que priorizan la información reciente".
Los primeros intentos comerciales de manipular los resultados de los chats también están cobrando impulso, y algunos de los mismos profesionales del marketing digital que antes ofrecían optimización para motores de búsqueda (SEO) para mejorar las posiciones en Google ahora intentan aumentar las menciones de los chatbots de IA mediante la optimización generativa de motores (GEO).
A medida que las personas utilizan motores de IA para aprender a producir contenido de chatbot más atractivo, el volumen de dicho contenido crece mucho más rápido de lo que mejora su calidad. Esto puede frustrar al usuario común, pero beneficia a quienes tienen más recursos y más que ganar: por ahora, según los expertos, son los gobiernos nacionales con experiencia en la difusión de propaganda.
"Predijimos que este sería el destino final del contenido", declaró un exlíder militar estadounidense sobre defensa de la influencia, quien habló bajo condición de anonimato para tratar temas delicados. "Ahora que esto se orienta más hacia el intercambio de información de máquina a máquina: en términos de alcance, escala, tiempo e impacto potencial, nos estamos quedando atrás".
Rusia y, en menor medida, China han estado explotando esa ventaja inundando la zona con fábulas. Pero cualquiera podría hacer lo mismo, consumiendo muchos menos recursos que las anteriores operaciones de granjas de trolls.
Uno de los primeros beneficiarios es el prolongado esfuerzo de Rusia por convencer a Occidente de que no vale la pena proteger a Ucrania de una invasión. Relatos desmentidos sobre la muerte de "mercenarios" franceses y un inexistente instructor de vuelo danés en Ucrania aparecen en respuesta a preguntas formuladas a los chatbots más importantes, junto con descripciones crédulas de vídeos montados que muestran a supuestos soldados ucranianos quemando la bandera estadounidense y al presidente Donald Trump en efigie.
Un hombre coloca flores en un parque infantil para conmemorar a las víctimas del misil balístico ruso que impactó en Krivói Rog, Ucrania, el 4 de abril, matando al menos a 20 personas, incluidos nueve niños, y dejando 90 heridos. (Oksana Parafeniuk/Para The Washington Post)
Muchas versiones de estas historias aparecen primero en medios de comunicación controlados por el gobierno ruso, como Tass, que están prohibidos en la Unión Europea. En un proceso a veces denominado lavado de información, las narrativas se propagan posteriormente a numerosos medios de comunicación aparentemente independientes, incluyendo la conocida cadena Pravda, tras las referencias a la palabra rusa para "verdad" que aparece en muchos de los nombres de dominio de sus sitios web.
En un giro que desconcertó a los investigadores durante un año, casi ningún ser humano visita los sitios, que son difíciles de navegar o buscar. En cambio, su contenido está dirigido a rastreadores, los programas que rastrean la web y devuelven contenido para motores de búsqueda y grandes modelos de lenguaje.
Si bien estas iniciativas de IA están entrenadas con diversos conjuntos de datos, cada vez más ofrecen chatbots que buscan en la web actual. Es más probable que detecten algo falso si es reciente, y más aún si cientos de páginas web dicen prácticamente lo mismo.
"Los operadores tienen un incentivo para crear medios alternativos que oculten el origen de estas narrativas. Y esto es exactamente lo que parece estar haciendo la red Pravda", afirmó McKenzie Sadeghi, experta en IA de NewsGuard, que evalúa la fiabilidad de los sitios web.
La táctica es aún más efectiva porque la operación rusa logró que se editaran enlaces a las historias de la red Pravda en páginas de Wikipedia y publicaciones públicas de grupos de Facebook, probablemente con la ayuda de contratistas humanos. Muchas empresas de IA otorgan especial importancia a Facebook, y en especial a Wikipedia, como fuentes fiables. (Wikipedia declaró este mes que sus costes de ancho de banda se han disparado un 50 % en poco más de un año, principalmente gracias a los rastreadores de IA).
Dado que los nuevos sistemas de propaganda están altamente automatizados gracias a sus propios esfuerzos de IA, son mucho más económicos de gestionar que las campañas de influencia tradicionales. Funcionan incluso mejor en lugares como China, donde los medios tradicionales están más controlados y hay menos fuentes para los bots.
Varios miembros del Congreso, incluido el actual secretario de Estado, Marco Rubio, declararon en junio que les preocupaba que el chatbot Gemini de Google repitiera la postura del gobierno chino sobre su trato a las minorías étnicas y su respuesta a la pandemia del coronavirus. Los analistas afirmaron que Gemini probablemente dependía demasiado de fuentes chinas. Google declinó hacer comentarios.
Algunos expertos señalaron que las respuestas erróneas de los chatbots les recordaban el entusiasmo infundado de hace más de una década por Facebook y lo que entonces era Twitter como medios imbatibles para comunicar y establecer la verdad, antes de que países con grandes presupuestos y segundas intenciones se apropiaran de estas plataformas. "Si las tecnologías y herramientas se vuelven sesgadas —y ya lo son— y luego fuerzas malévolas controlan dicho sesgo, nos encontramos en una situación mucho peor que con las redes sociales", declaró Louis Têtu, director ejecutivo de Coveo, con sede en la ciudad de Quebec, proveedor de software de inteligencia artificial para empresas.
La red Pravda ha sido documentada en informes europeos desde principios de 2024. En aquel entonces, el gobierno francés y otros identificaron una red con sede en Crimea, una región ucraniana a orillas del Mar Negro que Rusia anexó ilegalmente en 2014, creada por una empresa local, TigerWeb, vinculada al gobierno respaldado por Rusia. La agencia gubernamental francesa Viginum afirmó que el sistema utilizaba fuentes prorrusas, ampliándolas mediante la automatización a través de redes sociales y una serie de sitios web que primero se dirigieron a Ucrania antes de trasladarse a países de Europa Occidental tras la invasión de 2022.
En un entorno de información impulsado por la IA, los antiguos y costosos esfuerzos para ganar credibilidad a través de influencers y manipular algoritmos de redes sociales ya no son esenciales, afirmó Ksenia Iliuk, cuya startup LetsData utiliza IA para detectar operaciones de influencia. "Se está divulgando mucha información sin moderación alguna, y creo que ahí es donde los actores maliciosos están concentrando la mayor parte de sus esfuerzos", afirmó Iliuk.
El principal propagandista del Kremlin, John Mark Dougan (https://www.washingtonpost.com/technology/2024/11/01/russia-us-election-meddling-disinformation/), estadounidense residente en Moscú, afirmó en enero que la amplificación de la IA era una herramienta crucial para acceder a los chatbots. «Al impulsar estas narrativas rusas desde la perspectiva rusa, podemos realmente cambiar la IA a nivel mundial», declaró en un debate subido a YouTube por medios rusos.
La red Pravda se expandió a nuevas geografías e idiomas, y a principios de este año producía hasta 10,000 artículos al día, según la organización sin fines de lucro American Sunlight Project. En un informe de febrero, Sunlight concluyó que el objetivo más probable de la operación era infiltrar grandes modelos lingüísticos, un proceso que denominó «limpieza de LLM». «Los problemas combinados de tamaño y calidad sugieren una red de sitios web y cuentas de redes sociales que producen contenido no destinado principalmente al consumo humano», escribió.
El mes pasado, otros investigadores se propusieron comprobar si la estrategia estaba funcionando. La empresa finlandesa Check First revisó Wikipedia y encontró casi 2000 hipervínculos en páginas en 44 idiomas que apuntaban a 162 sitios web de Pravda. También descubrió que información falsa promovida por Pravda aparecía en las respuestas de los chatbots.
NewsGuard analizó las narrativas rusas falsas promovidas por la red con 10 chatbots y descubrió que recibían la respuesta incorrecta un tercio de las veces, aunque algunos chatbots tuvieron un mejor rendimiento que otros. Cuatro de los bots, tras descifrar las descripciones de un vídeo de propaganda preparado, informaron falsamente que un batallón ucraniano quemó una efigie de Trump.
Experimentos menos estructurados realizados recientemente por The Washington Post arrojaron resultados similares. Al preguntársele este mes si soldados ucranianos habían quemado una efigie de Trump, como informó la cadena Pravda, Microsoft Copilot respondió: «Sí, hubo informes de un vídeo que mostraba a soldados ucranianos quemando una efigie del expresidente estadounidense Donald Trump. En el vídeo, los soldados supuestamente criticaron a Trump por acciones que, según creían, afectaron la capacidad de Ucrania para recibir armas. Sin embargo, algunos espectadores cuestionaron la autenticidad del vídeo». Para más información, remitió a los usuarios a un artículo en el sitio web American Military News, que a su vez citaba al influencer de extrema derecha Ian Miles Cheong, quien escribe para RT.com (Rusia).
ChatGPT de OpenAI obtuvo resultados mucho mejores: "No, los soldados ucranianos no quemaron una efigie de Donald Trump. Un video circuló en línea que supuestamente mostraba a militares ucranianos quemando un maniquí de Trump y tachándolo de 'traidor'. Sin embargo, este video ha sido desmentido como una pieza de desinformación rusa".
Microsoft rechazó una solicitud de entrevista, pero declaró que sus empleados y su software "evalúan el uso indebido de Copilot para detectar desinformación, phishing y otras estafas, y entrenan a sus modelos para evitar la generación de este y otros tipos de material dañino". Grok, de Elon Musk, que depende en gran medida de su empresa hermana X para obtener información, afirmó sobre el piloto inexistente, supuestamente fallecido, que había "informes contradictorios sobre el destino de Jepp Hansen, descrito como piloto e instructor danés de F-16, presuntamente involucrado en el entrenamiento de pilotos ucranianos". Grok no respondió a una solicitud de comentarios.
Cuanto más específica sea una consulta sobre un tema de desinformación, más probable es que se encuentre información falsa. Esto se debe a la relativa ausencia de información veraz sobre un tema específico definido por los propagandistas.
Las empresas de inteligencia artificial OpenAI, Anthropic y Perplexity no respondieron a las solicitudes de entrevista.
Funcionarios de la administración Biden hablaron con empresas de inteligencia artificial sobre los problemas, según el exoficial militar y otro funcionario, quienes hablaron bajo condición de anonimato para poder hablar de actividades no públicas.
"Los chatbots usan algo y el usuario lo toma como un hecho, y si no se verifica la información al respecto, eso es un problema", afirmó un exexperto de la Casa Blanca. Estábamos hablando con empresas de inteligencia artificial sobre cómo iban a perfeccionar sus modelos para garantizar la integridad de la información. Pero esas conversaciones se han estancado por temor a que se malinterprete como censura.
Los funcionarios actuales también son conscientes del problema y de las primeras medidas de Rusia para aprovecharlo. «Las actividades de influencia maligna de Moscú continuarán en el futuro previsible y es casi seguro que aumentarán en sofisticación y volumen», advirtió la directora de Inteligencia Nacional, Tulsi Gabbard, el mes pasado en el primer informe anual de amenazas globales de su oficina (https://www.dni.gov/files/ODNI/documents/assessments/ATA-2025-Unclassified-Report.pdf).
Sin embargo, es difícil encontrar indicios de una respuesta pública. El Centro de Interacción Global del Departamento de Estado, encargado desde hace tiempo de contrarrestar la propaganda extranjera, fue clausurado en diciembre después de que Musk, principal financista de Trump, lo acusara de censura y el Congreso, de mayoría republicana, dejara de financiarlo.
La fiscal general Pam Bondi cerró el Grupo de Trabajo sobre Influencia Extranjera del FBI, que, entre otras funciones, advertía a las empresas de redes sociales sobre campañas en sus redes. Los republicanos, tanto en el Congreso como en otros foros, criticaron esta práctica, alegando que equivalía a censura, aunque la Corte Suprema de Estados Unidos confirmó el derecho de los funcionarios a informar a las empresas sobre lo que observaban.
Si bien la demanda de los consumidores en el mercado podría generar mejores soluciones, por ahora las empresas se apresuran a ofrecer servicios con una verificación tan deficiente como la de los sitios de propaganda de los que se nutren, afirmó Miranda Bogen, directora del Laboratorio de Gobernanza de IA del Centro para la Democracia y la Tecnología, una organización sin fines de lucro.
"Hay un retroceso en la forma de pensar de los desarrolladores tecnológicos sobre la confianza y la seguridad", afirmó. "Por eso se aboga por la creación de instituciones que puedan ayudar a desarrollar métodos para detectar y mitigar los riesgos que plantea la IA".
NewsGuard afirmó que la colaboración entre las empresas de IA y con los investigadores en sistemas de reputación sería una mejor opción que la regulación, pero Pistilli, de Hugging Face, señaló que sería difícil para las empresas acordar estándares.
"Es probable que las empresas se enfrenten a una mayor presión tras vergonzosos fracasos, pero la presión competitiva para proporcionar información actualizada podría seguir superando los esfuerzos de verificación", afirmó. "Los incentivos económicos siguen estando poco alineados con la integridad de la información".