La désinformation russe ne fonctionne pas toujours.
Sur 135 publications de propagande pro-Kremlin analysées dans un nouveau rapport, 134 ont plus ou moins échoué auprès des utilisateurs des réseaux sociaux, likées et partagées principalement par un réseau de robots. Mais l'une d'elles a fait un tabac – et l'intelligence artificielle rendant la désinformation moins coûteuse à produire, les experts affirment qu'un seul succès suffit probablement à faire de la campagne une victoire aux yeux de ses financeurs obscurs, probablement russes.
La publication, une vidéo de fake news contenant de fausses informations sur l'Agence américaine pour le développement international (USAID), a fait un carton lorsqu'Elon Musk l'a relayée sur X.
Cette campagne de propagande s'appelle Opération Surcharge, également connue sous le nom de Matriochka. Elle associe généralement de vraies images à des voix off générées par l'IA et aux logos de véritables organes de presse ou institutions pour créer des « extraits d'actualité » faux ou trompeurs qui soutiennent les arguments russes. Dans un rapport partagé avec Tech Brief avant sa publication mardi, des chercheurs de l'Institut pour le dialogue stratégique (ISD), une organisation à but non lucratif, ont examiné le contenu de ces publications, leurs objectifs et leur mode de diffusion.
L'ISD a découvert que le réseau, dont le soutien du gouvernement russe est présumé, mais non confirmé, passerait d'un sujet d'actualité brûlant à un autre afin d'influencer le discours sur les réseaux sociaux. Son message était centré sur un objectif russe familier : « affaiblir le soutien des pays de l'OTAN à l'Ukraine et perturber sa politique intérieure ».
La plupart des publications de l'Opération Surcharge n'ont abouti à rien, mais l'une d'elles a réussi à accrocher l'un des plus gros poissons du monde politique.
Les publications diffusant des « mensonges extravagants », tels que de faux complots d'assassinat et des accusations de pédophilie, semblent avoir été largement ignorées, selon le rapport, même si X en a supprimé moins de 20 %.
C'est un faux message moins accrocheur qui a finalement eu du succès.
La vidéo, qui se présentait comme un extrait de la chaîne de télévision câblée E News, affirmait à tort que l'USAID avait versé des millions de dollars pour que des acteurs hollywoodiens célèbres, tels qu'Angelina Jolie, Sean Penn et Ben Stiller, se rendent en Ukraine dans l'espoir de renforcer la popularité du président Volodymyr Zelensky. Le 5 février, la vidéo a été publiée par un compte anonyme de droite de X, comptant plus de 700 000 abonnés, puis relayée par Elon Musk, dont les 220 millions d'abonnés font de lui la voix la plus forte de la plateforme.
La vidéo a ensuite été démentie par les utilisateurs de Community Notes, le programme de vérification participative des faits de X, qui ont souligné qu'E News et Stiller l'avaient déclarée bidon. Néanmoins, elle était toujours présente sur X lundi, après avoir cumulé plus de 4 millions de vues. X n'a pas répondu à une demande de commentaire.
Ces fausses informations ont au moins trois objectifs.
L'un d'eux est de renforcer les arguments russes auprès de ceux qui sont prêts à les croire. En l'occurrence, Elon Musk faisait partie de ceux qui étaient au cœur d'une série de publications de X diffamant l'USAID après le démantèlement de l'agence par son Département de l'efficacité gouvernementale.
Le Kremlin et ses alliés médiatiques tentent de diaboliser l'USAID depuis plus de dix ans, a déclaré Nina Jankowicz, PDG de l'American Sunlight Project, une organisation à but non lucratif qui étudie la désinformation. Le démantèlement controversé de l'agence par DOGE a permis d'atteindre un public américain réceptif avec un message liant le gaspillage des dépenses de l'USAID à l'impopularité de Zelensky – un autre argument de poids russe.
Un autre objectif est de saper la crédibilité des organes de presse et autres institutions dont les publications imitent le contenu, a déclaré Joseph Bodnar, directeur de recherche senior à l'ISD.
« Une fois que vous êtes trompé par une vidéo portant le logo d'un média, vous êtes plus susceptible de remettre en question la vidéo suivante du même média que vous voyez », a-t-il déclaré.
Enfin, l'opération Overload en particulier semble avoir pour but, au moins en partie, de faire perdre du temps à ces institutions et aux vérificateurs de faits indépendants chargés de démystifier ces affirmations. Plus il y a de fausses publications, plus il faut de ressources pour les éliminer toutes.
Le rapport montre comment la désinformation russe peut être un jeu de chiffres, et comment l'IA fait pencher la balance en faveur des trolls.
« Si une vidéo sur 100 est suivie, c'est une victoire qui atteint son objectif », a déclaré Bodnar.
Ce point est souligné dans une étude publiée en avril par des chercheurs universitaires, dont Darren Linvill, codirecteur du Media Forensics Hub de l'Université Clemson. Ils ont découvert que l'IA permet aux acteurs malveillants de créer davantage de contenu, plus rapidement, sans compromettre sa crédibilité auprès des utilisateurs qui le découvrent.
En d'autres termes, a déclaré Linvill, « ils jettent beaucoup de spaghettis au mur ». Mais ils ont aussi des moyens d'augmenter les chances que certains restent. Par exemple, il a déclaré que la fausse vidéo d'E News republiée par Musk avait été initialement diffusée par un réseau d'influenceurs pro-russes bénéficiant d'un public humain.
Suivre ce type de campagnes, et a fortiori les combattre, devient de plus en plus difficile, selon les experts.
X, le réseau d'Elon Musk, et Meta, celui de Mark Zuckerberg, ont fermé des outils destinés aux chercheurs et renoncé à modérer les contenus en ligne ces dernières années, dans le contexte d'une campagne menée par les Républicains contre la modération des contenus en ligne, que beaucoup à droite considèrent comme de la censure. La recherche indépendante sur la désinformation a été freinée par une vague de poursuites judiciaires, d'auditions au Congrès et de campagnes de harcèlement en ligne contre les chercheurs indépendants.
L'administration du président Donald Trump a dissous des unités gouvernementales axées sur la traque et la lutte contre la désinformation étrangère, comme le Global Engagement Center du département d'État. Le mois dernier, elle a commencé à annuler les subventions de la National Science Foundation pour la recherche sur la mésinformation et la désinformation.
Alors que les républicains du Congrès accusaient le GEC de supprimer la liberté d'expression, Bodnar a déclaré qu'il jouait un rôle essentiel dans l'identification des campagnes de désinformation soutenues par l'État, que les plateformes et les chercheurs indépendants pouvaient ensuite relier à d'autres opérations. Sa disparition signifie que les chercheurs seront plus souvent contraints de déduire l'implication de la Russie et d'autres acteurs étatiques dans les opérations qu'ils suivent, comme dans le cas de l'opération Overload.
Les opérations de désinformation russes, quant à elles, ne montrent aucun signe de ralentissement.
Avec l'élimination de l'USAID, l'opération a récemment porté une partie de son attention sur les élections en Allemagne, en Pologne et dans d'autres pays européens, a déclaré Bodnar.
Le mois dernier, mon collègue Joseph Menn a fait état d'une approche différente adoptée par les agents russes pour diffuser de la propagande, en l'occurrence en ensemençant des chatbots IA avec des mensonges du Kremlin. C’est une façon par laquelle la désinformation publiée en ligne pourrait s’infiltrer dans le grand public, même si aucun humain ne la lit ou ne la partage intentionnellement.