Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5158

Incidentes Asociados

Incidente 10603 Reportes
Institute for Strategic Dialogue Reports Russian-Aligned Operation Overload Using Purported AI-Generated Impersonations Across January to March 2025

Loading...
Una red rusa de noticias falsas estaba en apuros. Entonces, atacó a USAID.
washingtonpost.com · 2025

La desinformación rusa no siempre funciona.

De 135 publicaciones de propaganda afines al Kremlin analizadas en un nuevo informe, 134 prácticamente no tuvieron éxito entre los usuarios de redes sociales, recibiendo "me gusta" y siendo compartidas principalmente por una red de bots. Pero una tuvo un gran éxito, y dado que la inteligencia artificial abarata la producción de desinformación, los expertos afirman que ese único éxito probablemente convierte a toda la campaña en una victoria para sus oscuros, probablemente rusos, financiadores.

La publicación, un video de noticias falsas que hacía afirmaciones falsas sobre la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID), dio en el clavo cuando Elon Musk la republicó en X.

La campaña de publicaciones propagandísticas se llama Operación Sobrecarga, también conocida como Matryoshka. Suele combinar imágenes reales con voces en off generadas por IA y los logotipos de organizaciones o instituciones de noticias reales para crear "clips de noticias" falsos o engañosos que apoyan los argumentos rusos. En un informe compartido con Tech Brief antes de su publicación el martes, investigadores del Instituto para el Diálogo Estratégico (ISD), una organización sin fines de lucro, examinaron el contenido de esas publicaciones, sus objetivos y cómo se difundieron.

ISD descubrió que la red, que se presume, pero no se ha confirmado, cuenta con el respaldo del gobierno ruso, oscila entre un tema de actualidad y otro con el objetivo de influir en el discurso que se desarrolla en las redes sociales. Su mensaje se centraba en un objetivo ruso conocido: "debilitar el apoyo de los países de la OTAN a Ucrania y perturbar su política interna".

La mayoría de las publicaciones de la Operación Sobrecarga no surtieron efecto, pero una logró atrapar a uno de los peces más grandes del mundo político.

El informe reveló que las publicaciones que promovían "mentiras extravagantes", como falsos planes de asesinato y acusaciones de pederastia, fueron mayoritariamente ignoradas, a pesar de que X ha eliminado menos del 20 %.

Fue una falsificación menos llamativa la que finalmente cobró impulso.

El video, que supuestamente era un clip del canal de televisión por cable E News, afirmaba falsamente que USAID había pagado millones de dólares para que actores famosos de Hollywood, como Angelina Jolie, Sean Penn y Ben Stiller, viajaran a Ucrania con la esperanza de impulsar la popularidad del presidente Volodímir Zelenski. El 5 de febrero, fue publicado por una cuenta anónima de derechas, X, con más de 700.000 seguidores, y posteriormente republicado por Musk, cuyos 220 millones de seguidores lo convierten en la voz más fuerte de la plataforma.

El video fue posteriormente desmentido por los usuarios del programa de verificación de datos colaborativo de X, Community Notes, quienes señalaron que tanto E News como Stiller lo habían declarado falso. Sin embargo, seguía en X el lunes, con más de 4 millones de visualizaciones. X no respondió a una solicitud de comentarios.

Las publicaciones falsas tienen al menos tres objetivos.

Uno es reforzar los argumentos rusos entre quienes están predispuestos a creerlos. En este caso, esto incluía a Musk, quien se encontraba en medio de una serie de publicaciones de X que difamaban a USAID después de que su Departamento de Eficiencia Gubernamental desmantelara la agencia.

El Kremlin y sus aliados mediáticos llevan más de una década intentando demonizar a USAID, según Nina Jankowicz, directora ejecutiva del American Sunlight Project, una organización sin fines de lucro que investiga la desinformación. El controvertido desmantelamiento de la agencia por parte de DOGE ofreció una oportunidad para llegar a una audiencia estadounidense receptiva con un mensaje que vinculaba el concepto de gasto innecesario de USAID con la idea de que Zelenski es impopular, otro tema de conversación ruso.

Otro objetivo es socavar la credibilidad de las organizaciones de noticias y otras instituciones cuyo contenido suplantan las publicaciones, afirmó Joseph Bodnar, director sénior de investigación de ISD.

"Una vez que te engaña un vídeo con el logotipo de un medio, es más probable que dudes del siguiente vídeo que veas del mismo medio", añadió.

Por último, la Operación Sobrecarga, en particular, parece tener como objetivo, al menos en parte, simplemente hacer perder el tiempo a esas instituciones y a los verificadores de datos independientes encargados de desacreditar tales afirmaciones. Cuantas más publicaciones falsas, más recursos se necesitan para desmantelarlas.

El informe muestra cómo la desinformación rusa puede ser un juego de números y cómo la IA está inclinando la balanza a favor de los trolls.

"Si uno de cada 100 vídeos consigue visibilidad, es una victoria que cumple su objetivo", afirmó Bodnar.

Este punto se subraya en un artículo publicado en abril por investigadores académicos, entre ellos Darren Linvill, codirector del Centro de Análisis Forense de Medios de la Universidad de Clemson. Descubrieron que la IA permite a los actores maliciosos crear más contenido, más rápido, sin comprometer su credibilidad percibida entre los usuarios que lo encuentran.

En otras palabras, según Linvill, "lanzan un montón de trampas". Pero también tienen formas de aumentar las probabilidades de que algunos se queden. Por ejemplo, afirmó que el video falso de E News que Musk republicó se originó en una red de influencers prorrusos con seguidores reales.

Rastrear este tipo de campañas, y mucho menos combatirlas, es cada vez más difícil, según los expertos.

X de Musk y Meta de Mark Zuckerberg han desactivado herramientas para investigadores y se han retirado de la moderación de contenido en línea en los últimos años, en medio de una campaña liderada por los republicanos contra la moderación de contenido en línea, que muchos en la derecha consideran censura. La investigación independiente sobre desinformación se ha visto frenada por una oleada de demandas, audiencias en el Congreso y campañas de acoso en línea contra investigadores independientes.

El gobierno del presidente Donald Trump ha disuelto unidades gubernamentales (https://www.politico.com/news/2025/04/16/state-department-shutters-gec-foreign-disinformation-00292982) centradas en el seguimiento y la lucha contra la desinformación extranjera, como el Centro de Participación Global (https://www.washingtonpost.com/politics/2024/12/11/global-engagement-center-gec-censorship-disinfo/) del Departamento de Estado. El mes pasado, comenzó a cancelar las subvenciones de la Fundación Nacional de Ciencias (https://www.npr.org/2025/05/02/nx-s1-5371720/national-science-foundation-budget-grant-cuts-turmoil) para la investigación sobre desinformación.

Si bien los republicanos del Congreso acusaron al GEC de suprimir la libertad de expresión, Bodnar afirmó que este desempeñó un papel fundamental en la identificación de campañas de desinformación respaldadas por el Estado, que las plataformas y los investigadores independientes pudieron vincular con otras operaciones. Su desaparición significa que los investigadores tendrán que inferir con mayor frecuencia la participación de Rusia y otros actores estatales en las operaciones que rastrean, como en el caso de la Operación Sobrecarga.

Las operaciones de desinformación rusas, por su parte, no muestran signos de desaceleración.

Con USAID desmantelada, la operación ha centrado últimamente parte de su atención en las elecciones en Alemania, Polonia y otros países europeos, afirmó Bodnar.

El mes pasado, mi colega Joseph Menn informó sobre un enfoque diferente de los agentes rusos para difundir propaganda, en ese caso mediante sembrar chatbots de IA con mentiras del Kremlin. Es una forma en la que la desinformación publicada en línea podría filtrarse al público en general incluso si ningún ser humano la lee o la comparte intencionalmente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd