Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4930

Incidentes Asociados

Incidente 96827 Reportes
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
Red rusa de noticias falsas inunda chatbots de inteligencia artificial occidentales con millones de artículos de propaganda
the-decoder.com · 2025

Una operación de desinformación con base en Moscú está introduciendo sistemáticamente propaganda rusa en los sistemas de inteligencia artificial occidentales a través de una vasta red de sitios de noticias falsas llamada "Pravda" (la "verdad" en ruso).

Los hallazgos recientes de NewsGuard muestran que los principales chatbots de inteligencia artificial aceptaron narrativas falsas de la red Pravda con sede en Moscú el 33,5 por ciento de las veces. En el 48,2 por ciento de los casos, los sistemas identificaron correctamente el contenido ruso como desinformación, aunque a veces citaron fuentes engañosas. El 18,2 por ciento restante de las respuestas no fueron concluyentes.

La red abarca 150 dominios, que publicaron aproximadamente 3,6 millones de artículos en 49 países solo en 2024. Los dominios objetivo incluyen NATO.News-Pravda.com, Trump.News-Pravda.com y Macron.News-Pravda.com.

A diferencia de las campañas de desinformación tradicionales, estos sitios no se dirigen a los lectores humanos: la mayoría de las páginas reciben menos de 1000 visitantes mensuales. En cambio, el contenido está diseñado específicamente para ser ingerido y redistribuido por sistemas de IA.

NewsGuard evaluó los chatbots utilizando 15 historias verificablemente falsas distribuidas por la red Pravda entre abril de 2022 y febrero de 2025. Los sistemas probados incluyeron ChatGPT-4o de OpenAI, Smart Assistant de You.com y Grok de xAI. El análisis también incorporó Pi de Inflection, le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Gemini de Google y Perplexity.

"LLM grooming" surge como una nueva táctica de manipulación

Los expertos describen esta técnica como "LLM grooming": manipulación deliberada de los datos de entrenamiento de la IA a través de contenido publicado en masa y optimizado para SEO.

"Cuanto más diversa sea esta información, más influirá en el entrenamiento y en la futura IA", explicó John Mark Dougan, un estadounidense residente en Moscú, durante una conferencia local. Según NewsGuard, Dougan, que emigró de Estados Unidos, supuestamente apoya las campañas de desinformación rusas.

La autoridad francesa Viginum rastrea la red hasta TigerWeb, una empresa de TI que opera desde Crimea ocupada por Rusia. La operación parece estar en línea con una estrategia rusa más amplia: el presidente Putin anunció una mayor inversión en inteligencia artificial en 2023 para contrarrestar lo que llamó motores de búsqueda occidentales y modelos generativos "selectivos y sesgados".

Combatir este tipo de manipulación resulta especialmente difícil. Cuando las autoridades bloquean dominios conocidos de Pravda, otros nuevos ocupan rápidamente su lugar. Dado que la desinformación fluye a través de múltiples canales simultáneamente, regurgitando las noticias de otros sitios de la red, el simple bloqueo de sitios web proporciona poca protección contra la campaña más amplia.

Un estudio reciente de OpenAI muestra que actores respaldados por estados de Rusia, China, Irán e Israel ya han intentado aprovechar los sistemas de IA para campañas de desinformación. Estas operaciones combinan contenido generado por IA con materiales tradicionales creados manualmente. Grupos políticos como el partido de extrema derecha AFD de Alemania y otros también están utilizando modelos de imágenes de IA con fines propagandísticos.

El propio Trump también es un conocedor frecuente de propaganda basura de IA. Pero también ha utilizado la táctica propagandística opuesta: al decir que la información real es falsa por la IA, crea un escenario en el que la gente no puede confiar en ninguna información en línea, lo que hace que sea aún más probable que solo escuchen a las personas en las que confían, en lugar de la información real. Y los modelos de IA chinos vienen precargados con censura y propaganda.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd