Incidente 909: La campaña Matryoshka supuestamente usa deepfakes para hacerse pasar por académicos y hacer propaganda prorrusa.
Descripción: La campaña de desinformación Matryoshka presuntamente utilizó inteligencia artificial para hacerse pasar por académicos, difundiendo afirmaciones de apoyo a Rusia e instando a la rendición de Ucrania. Se dice que estos videos tergiversaron las opiniones de los académicos para amplificar la propaganda prorrusa. La campaña explotó las redes sociales globales para engañar a los espectadores y socavar la confianza en voces académicas creíbles, a la vez que alimentaba la desinformación sobre el conflicto de Ucrania.
Editor Notes: Reconstructing the reported timeline of events: (1) September 2023: The Matryoshka disinformation campaign reportedly began, allegedly producing anti-Ukrainian propaganda and distributing it via stolen accounts and bots on platforms like X and Telegram. (2) November 2023: Reports from Viginum reportedly revealed similarities between Matryoshka and Russia's GRU-linked Doppelgänger network, allegedly indicating potential shared origins. (3) Early 2024: The campaign allegedly began using AI to generate deepfake videos of academics from institutions like Cambridge and Harvard. (4) November 2024: The University of Bristol reportedly verified that a video falsely attributing political statements to historian Ronald Hutton was allegedly AI-manipulated. (5) December 13, 2024 (the date for this Incident ID): An investigation by The Insider reportedly confirmed that Matryoshka videos allegedly misrepresented academics’ voices to spread pro-Russian propaganda, with the footage heavily promoted in multiple languages by allegedly stolen social media accounts. When studying this incident, please also refer to Incidents 929, 931, 1060, and 1061. While Incident 931 has not been explicitly attributed to Operation Overload (also known as Matryoshka or Storm-1679), its thematic content and manipulation tactics appear adjacent. (No direct forensic or institutional linkage has been established as of this writing.)
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developers developed an AI system deployed by Storm-1679 , Russian entities linked to GRU , Reliable Russian News , Operation Overload y Matryoshka, which harmed Ronald Hutton , Academics targeted by Storm-1679 , Academics targeted by Operation Overload y Academics targeted by Matryoshka.
Estadísticas de incidentes
ID
909
Cantidad de informes
3
Fecha del Incidente
2024-12-13
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

La red de desinformación rusa Matryoshka ha lanzado una nueva campaña destinada a convencer a los usuarios de las redes sociales de que académicos y profesores de las mejores universidades del mundo están pidiendo a Occidente que levante la…
La red de desinformación rusa "Matryoshka" ha lanzado una nueva campaña en la red social Bluesky. Eliot Higgins, fundador del grupo de periodismo de investigación Bellingcat, ha sido uno de los primeros investigadores en detectar su activid…

Los primeros síntomas de desinformación aparecen en la red social Bluesky, con ecos de la campaña prorrusa “Matryoshka” que inundó la red social X de Elon Musk, pero con algunas particularidades.
El colectivo @antibot4navalny, especializado…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?