Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4977

Incidentes Asociados

Incidente 96827 Reportes
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
La propaganda rusa ha infectado a los chatbots de IA occidentales, según un nuevo estudio.
forbes.com · 2025

Una auditoría de NewsGuard publicada la semana pasada reveló una preocupante tendencia: la mayoría de los chatbots occidentales de IA difunden propaganda rusa sin saberlo. Una red de desinformación con sede en Moscú, conocida como "Pravda" (la palabra rusa para "verdad"), ha estado inundando los resultados de búsqueda y los rastreadores web con falsedades pro-Kremlin, lo que provoca que los sistemas de IA regurgiten narrativas engañosas. La red Pravda, que publicó 3,6 millones de artículos solo en 2024, está utilizando la inteligencia artificial para ampliar la influencia de Moscú a una escala sin precedentes.

La auditoría reveló que 10 de los principales chatbots de IA repetían narrativas falsas impulsadas por Pravda el 33 % del tiempo. Sorprendentemente, siete de estos chatbots citaban directamente los sitios web de Pravda como fuentes legítimas. En un intercambio de correos electrónicos, la analista de NewsGuard Isis Blachez escribió que el estudio no menciona los sistemas de IA más susceptibles al flujo de información falsa, pero reconoció que la amenaza es generalizada.

"Nuestra investigación sugiere que las operaciones de influencia rusas están cambiando sus métodos hacia la manipulación de modelos de IA en lugar de dirigirse directamente a lectores humanos, y lo hacen para alcanzar una escala mucho mayor", explicó Blachez.

Rusia "ha adoptado nuevas estrategias para que cualquiera que utilice modelos de IA sea vulnerable a encontrarse con propaganda rusa. Lo que hace esto particularmente preocupante es que esta manipulación es sutil y no es fácilmente visible; es un problema subyacente que opera entre bastidores, afectando las respuestas de la IA sin que los usuarios se den cuenta", añadió.

Una nueva amenaza de IA: la manipulación de datos de LLM

Una de las prácticas más alarmantes descubiertas es lo que NewsGuard denomina "manipulación de datos de LLM". Esta táctica se describe como el engaño deliberado de los conjuntos de datos que los modelos de IA, como ChatGPT, Claude, Gemini, Grok 3, Perplexity y otros, utilizan para entrenarlos, inundándolos con desinformación.

Al suscribirse, acepta recibir este boletín informativo, otras actualizaciones sobre las ofertas de Forbes y sus afiliados, nuestros Términos de Servicio (incluida la resolución de disputas de forma individual mediante arbitraje) y reconoce nuestra Declaración de Privacidad.

Blachez señaló que esta propaganda acumulada está diseñada para sesgar los resultados de la IA y alinearlos con las perspectivas prorrusas. El enfoque de Pravda es metódico y se basa en una extensa red de 150 sitios web que publican en docenas de idiomas en 49 países.

"La manipulación de datos LLM se refiere a la manipulación intencional de los datos con los que se entrenan los modelos de IA, alterando sus resultados con el objetivo de promover una perspectiva, en este caso, la propaganda rusa. La red de Pravda logra esto publicando falsedades masivamente en muchos dominios web para saturar los resultados de búsqueda, además de aprovechar estrategias de optimización de motores de búsqueda para contaminar los rastreadores web que agregan datos de entrenamiento", escribió.

Añadió que la escala y la sofisticación de este esfuerzo dificultan que las empresas de IA simplemente bloqueen los sitios de Pravda sin arriesgarse a la infiltración continua de narrativas falsas a través de otros canales.

El informe cita el ejemplo de una afirmación falsa según la cual el presidente ucraniano Volodymyr Zelenskyy prohibió la aplicación Truth Social del presidente estadounidense Donald Trump en Ucrania (https://www.france24.com/en/live-news/20250226-trump-rift-opens-floodgates-of-disinformation-on-ukraine). Siete de los diez chatbots repitieron esta falsedad, y algunos citaron directamente artículos de Pravda como fuentes. Este tipo de lavado de información errónea explota una debilidad fundamental de la IA: su incapacidad para distinguir entre fuentes fiables y no fiables sin medidas de seguridad sólidas.

Qué significa esto para los usuarios y las empresas de IA

Las implicaciones de esta avalancha de desinformación son considerables. A medida que las herramientas de IA se integran más en la vida cotidiana, el riesgo de que los operadores extranjeros modifiquen y redefinan la percepción pública aumenta proporcionalmente. Blachez advierte que las empresas de IA deben responder a esta amenaza para evitar que sus plataformas se vean inundadas de propaganda infundada.

"Sin las medidas de seguridad adecuadas, las empresas de IA corren el riesgo de contribuir a los objetivos de desinformación del Kremlin", afirmó.

Los usuarios también desempeñan un papel importante en la defensa contra la desinformación. Blachez aconseja verificar la información generada por la IA, especialmente en temas sensibles o relacionados con las noticias. Herramientas como las Huellas de Desinformación de NewsGuard, que catalogan afirmaciones demostrablemente falsas, pueden ayudar a los usuarios a identificar y evitar fuentes poco fiables.

La Creciente Amenaza de la Infiltración de IA

Bloquear los dominios de Pravda por sí solo no solucionará el problema, ya que la red está en constante expansión, con nuevos dominios y subdominios con nuevos nombres que surgen regularmente. Según Blachez, el gran volumen de contenido (más de 20.000 artículos cada 48 horas) hace casi imposible que los modelos de IA eviten la ingesta de narrativas falsas.

"Simplemente filtrar los sitios de Pravda no resolverá el problema en cuestión, dado que la red está en constante crecimiento", afirmó.

El informe de NewsGuard destaca la urgencia de que las empresas de IA adopten prácticas de verificación y obtención de contenido más sólidas. Como señaló Blachez, el riesgo va más allá de la desinformación política. Las técnicas que la red Pravda está desarrollando podrían ser adaptadas por otros actores maliciosos para manipular los modelos de IA en una variedad de temas, desde los mercados financieros hasta la información sanitaria.

La amenaza es clara. Si las empresas de IA no actúan, las herramientas que diseñaron para democratizar la información podrían convertirse en canales de desinformación a escala global.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd