Incidents associés

Le 7 février, à la veille des élections législatives à Delhi, deux vidéos du président du Bharatiya Janata Party (BJP), Manoj Tiwari, critiquant le gouvernement sortant de Delhi, dirigé par Arvind Kejriwal, sont devenues virales sur WhatsApp. Dans l'une, Tiwari s'exprimait en anglais, dans l'autre en hindi haryanvi. « [Kejriwal] nous a trompés avec ses promesses. Mais Delhi a maintenant l'opportunité de tout changer. Votez pour Modi le 8 février », a-t-il déclaré.
Vidéo
On pourrait penser que ce monologue de 44 secondes relève de la stratégie politique habituelle, mais il y a un détail qui ne l'est pas : ces vidéos étaient fausses. Voici le contenu de la vidéo originale :
Vidéo
Nous sommes en 2020, et les deepfakes sont devenus un outil puissant et inquiétant permettant de manipuler ou de fabriquer du contenu visuel et audio sur Internet pour le rendre extrêmement réaliste. Ils sont comparables aux animations faciales utilisées dans les films hollywoodiens, en bien que beaucoup moins coûteux, et présentent un côté sombre. Depuis leur apparition en 2017, des célébrités de premier plan ont vu leurs visages incrustés dans des vidéos pornographiques existantes, faisant des deepfakes un outil tristement célèbre pour ses détournements.
Lorsque la cellule informatique du BJP de Delhi s'est associée à l'agence de communication politique The Ideaz Factory pour créer des « campagnes positives » utilisant des deepfakes afin de toucher différents électorats linguistiques, cela a marqué l'entrée de cette technologie dans les campagnes électorales indiennes. « La technologie des deepfakes nous a permis d'amplifier nos efforts de campagne comme jamais auparavant », explique Neelkant Bakshi, co-responsable des médias sociaux et de l'informatique pour le BJP de Delhi, à VICE. « Les vidéos en haryanvi nous ont permis d'approcher efficacement le public cible, même si le candidat ne parlait pas la langue de l'électeur. »
Vidéo
La vidéo truquée de Tiwari a été largement utilisée pour dissuader l'importante population de travailleurs migrants haryanviophones de Delhi de voter pour le parti politique rival. Selon Bakshi, ces deepfakes ont été diffusés dans 5 800 groupes WhatsApp à Delhi et dans sa région, touchant environ 15 millions de personnes.
Il n'est donc pas surprenant que la perspective de développer des campagnes utilisant les deepfakes pour influencer les masses ait alarmé les organismes de vérification des faits et les experts en politiques publiques. Nombreux sont ceux qui pensent que les deepfakes donneraient une toute nouvelle dimension à la lutte contre la désinformation et les fausses nouvelles, une lutte déjà qualifiée de « crise de santé publique ».
Depuis l'apparition des deepfakes en 2017, cette technologie a été largement utilisée pour créer de fausses vidéos pornographiques à partir d'images de célébrités et d'algorithmes d'intelligence artificielle. En effet, 96 % de ces vidéos sont des deepfakes pornographiques non consensuels. Cette utilisation sans précédent, et donc problématique, des deepfakes s'explique par le fait qu'une grande partie du code nécessaire à leur fabrication est accessible publiquement sur plusieurs sites de dépôts de code, ce qui facilite grandement leur création.
Sur le plan politique, cette technologie a attiré l'attention pour la première fois en 2018, lorsqu'un humoriste imitant Barack Obama a diffusé une vidéo de sensibilisation expliquant le caractère trompeur des deepfakes.
Vidéo
Dans un incident moins connu, une apparition vidéo d'Ali Bongo, président du Gabon, a été soupçonnée d'être un deepfake, ce qui a conduit à une tentative de coup d'État manquée menée par l'armée. Jusqu'à présent, les répercussions politiques des deepfakes sont restées relativement limitées.
Avec les campagnes électorales utilisant des deepfakes, nous entrons dans une ère où il deviendra impossible de se fier à ce que nous voyons et entendons. La vidéo de Tiwari, assis devant un mur vert et s'adressant à la caméra, a servi à produire une version truquée où il tient des propos qu'il n'a jamais tenus, dans une langue qu'il ne maîtrise même pas ! Dans ce cas précis, le discours a été scénarisé, vérifié et approuvé par le BJP pour la création des deepfakes. Il est toutefois facile d'imaginer que quelqu'un puisse truquer une vidéo pour proférer des menaces ou inciter à la haine contre une partie spécifique de la population.
Si de nombreuses vidéos deepfake populaires consistent en un remplacement complet du visage, une version plus subtile consiste à modifier uniquement les mouvements des lèvres d'une vidéo originale pour les synchroniser avec l'audio ciblé. L'entreprise Ideaz Factory affirme avoir utilisé cette dernière technique pour la vidéo de Tiwari. « Nous avons utilisé un algorithme de deepfake de synchronisation labiale, entraîné avec des discours de Manoj Tiwari, afin de traduire les sons audio en mouvements de bouche basiques », explique Sagar Vishnoi, stratège en chef chez The Ideaz Factory. L'entreprise a engagé un comédien de doublage pour imiter Tiwari lisant un texte en haryanvi, dont la voix a ensuite été superposée à la vidéo.
Bakshi, du BJP, affirme que l'accueil réservé à ces vidéos a été encourageant. « Des femmes au foyer du groupe ont trouvé réconfortant de voir leur leader parler leur langue », a-t-il déclaré, rapportant un commentaire reçu sur un groupe WhatsApp. Après ce succès viral, le parti a diffusé une seconde vidéo de Tiwari parlant anglais, destinée aux électeurs de Delhi.
VICE a partagé les vidéos avec des chercheurs du Rochester Institute of Technology (RIT) à New York, qui pensent qu'il s'agit bien de deepfakes, mais attendent la confirmation de leur logiciel dédié à la détection automatique des deepfakes. Ideaz Factory a refusé de divulguer davantage d'informations sur la technologie utilisée, mais Saniat Javid Sohrawardi, chercheur spécialisé dans les deepfakes au RIT, déclare : « Au vu du calendrier de leurs travaux, je pense qu'ils ont utilisé le code vid2vid de Nvidia. » Le seul autre algorithme connu capable de réaliser cette tâche est face2face, une application qui a servi à créer la vidéo deepfake d'Obama.
En Inde, cependant, la diffusion des deepfakes présente encore quelques lacunes. Dans les vidéos de Tiwari, quelques membres de groupes WhatsApp ont relevé une brève anomalie dans les mouvements de sa bouche. Vishnoi assure cependant que, mis à part ces petits problèmes, « nous avons utilisé un outil jusqu'ici réservé aux campagnes de dénigrement ou d'embuscade, et nous l'avons testé pour la première fois dans le cadre d'une campagne positive ». Il admet que la technologie utilisée par son entreprise n'est pas encore suffisamment aboutie pour générer synthétiquement la voix de la cible à l'aide d'algorithmes. Ils prévoient néanmoins d'étendre la campagne de deepfakes « positive » de Tiwari aux prochaines élections du Bihar et à l'élection présidentielle américaine de 2020.
Tarunima Prabhakar, cofondatrice de Tattle, un projet de technologie civique qui crée une archive consultable des contenus diffusés sur WhatsApp, déclare : « Le problème avec le discours de campagne “positive”, c'est qu'il ouvre la porte à la manipulation. » Cela signifie que même si l'entreprise parvient à s'autoréguler et décide de ne pas produire de vidéos malveillantes, d'autres sociétés, peut-être moins transparentes, trouveront d'autres utilisations pour instrumentaliser cette technologie. « Se contenter d'autoriser certaines formes de deepfakes par les partis politiques laisse une grande place à la subjectivité et à l'interprétation quant à la définition de ces formes », explique Prabhakar.
La multiplication des deepfakes, favorisée par le nombre croissant d'outils et de services, a permis à des non-spécialistes de créer facilement des vidéos truquées. Ideaz Factory n'est qu'une des nombreuses entreprises qui ont vu le jour en Inde pour tirer profit de cet accès. Il existe des portails dédiés aux deepfakes et des particuliers du monde entier publicité capables de créer des deepfakes personnalisés pour seulement 30 $. Il va sans dire que cette facilité d'accès a entraîné une augmentation du nombre d'opérateurs de deepfakes opérant clandestinement, le nombre de deepfakes ayant doublé pour atteindre 14 678 en 2019.
Cela signifie également que la plupart des contenus deepfake échappent inévitablement à la vérification des faits et aux experts techniques et ressources qui tentent d'endiguer ce fléau. Pratik Sinha, fondateur d'AltNews, un site web indien de vérification des faits qui analyse les affirmations et assertions publiées sur les réseaux sociaux, explique à VICE : « À l'heure actuelle, il est impossible de vérifier l'authenticité d'un contenu dont on ne reconnaît pas la manipulation. » Lorsque VICE a partagé les vidéos avec Sinha pour en vérifier l'authenticité, AltNews n'a pas pu les identifier comme fausses. « C'est dangereux », déclare Sinha, dont l'organisation a vérifié des milliers d'images modifiées et de vidéos manipulées au cours de ses trois années d'existence. « C’est la première fois que je vois un tel phénomène apparaître en Inde. »
Dans un pays comme l’Inde, où la culture numérique est encore balbutiante, même des manipulations vidéo rudimentaires ont engendré des violences. En 2018, plus de 30 décès ont été liés à des rumeurs diffusées sur WhatsApp en Inde. « Les deepfakes vont amplifier considérablement la désinformation », a déclaré Sinha. Bien qu’il n’existe actuellement aucun outil permettant de détecter les deepfakes de manière fiable, des chercheurs s’efforcent d’en développer quelques-uns. Reality Defender, une extension de navigateur permettant de détecter les fausses vidéos, en est un exemple.
Cependant, des experts comme Sinha estiment qu’aucune entreprise ne devrait être autorisée à exercer une activité commerciale légitime liée aux deepfakes dans le cadre de campagnes électorales en Inde. En octobre dernier, l'État de Californie, aux États-Unis, a adopté une loi interdisant la diffusion de vidéos truquées (deepfakes) de personnalités politiques dans les 60 jours précédant une élection. Cette loi visait à protéger les électeurs contre la désinformation. Cependant, Prabhakar ajoute qu'en Inde, l'interdiction des deepfakes est vouée à l'échec, car les partis politiques ne les cautionneraient jamais ouvertement. « Elles continueraient d'être exploitées par des entreprises parallèles », affirme-t-elle.
Une solution existe néanmoins. Vishnoi estime qu'une politique gouvernementale de lutte contre la désinformation est nécessaire, et que des campagnes de sensibilisation sont indispensables pour contrer les deepfakes malveillants. Quant au Dr Matthew Wright, directeur du Centre de cybersécurité du RIT, il considère l'émergence des deepfakes dans les campagnes électorales comme « un cas d'utilisation potentiellement positif, à condition que la transparence soit de mise ». « Pourquoi nos dirigeants politiques ne seraient-ils accessibles qu’à ceux qui savent lire, à condition que la traduction soit facilement disponible dans la langue appropriée ? » demande-t-il. « Mais si elle est utilisée de manière trompeuse, c’est une autre histoire, et je suis sûr que certains brouilleront les pistes. »