Incidents associés

Le 2 mars, le Centre de communication stratégique du gouvernement d'Ukraine [a averti](https://www.facebook.com/StratcomCentreUA/posts/300254888841165?cft% 5B0%5D=AZW49WphHXZNM7iYelmfUCV6QAyQNTh0Q_cQW8PDDmkjpouRQEvFWkYuf2tZAbxj90I1OZeAPeNfyc9rormS48QuhauI4jjcuM-6nRq-0sEWUFz821kdlG1btkI7lr7yyDh6Fh3 -E-vyNjB0FzrkWX3z&tn=%2CO%2CP-R) que ses ennemis pourraient préparer une vidéo « deepfake » cela semblait montrer le président Volodymyr Zelensky annonçant sa capitulation face à l’invasion russe. Mercredi, cet avertissement semblait prémonitoire.
Une fausse vidéo est apparue sur Facebook et YouTube dans laquelle une version étrangement immobile de Zelensky demandait aux troupes ukrainiennes de déposer les armes sur un ton différent de son ton habituel. Le clip a également été publié sur Telegram et sur le réseau social russe VKontakte, selon le groupe de réflexion américain [Atlantic Council](https://www.atlanticcouncil.org/blogs/new-atlanticist/russian-war-report-hacked-news -programme-et-deepfake-video-spread-false-zelenskyy-claims/). Selon Ukraine 24, des pirates informatiques ont dégradé son site Web avec une image tirée de la vidéo et inséré un résumé des fausses nouvelles dans l'émission chyron défilant.
Quelques minutes après que la chaîne de télévision ait parlé du piratage, Zelensky lui-même a publié une vidéo sur Facebook niant avoir demandé aux Ukrainiens de déposer les armes et qualifiant ce faux de provocation enfantine. Nathaniel Gleicher, responsable de la politique de sécurité chez Meta, propriétaire de Facebook, a tweeté(https://twitter.com/ngleicher/status/1504186935291506693) que la société avait supprimé le clip original deepfake pour violation de sa politique contre les médias manipulés trompeurs. Une déclaration fournie par le porte-parole de Twitter, Trenton Kennedy, a déclaré que la société suivait la vidéo et la supprimait dans les cas où elle enfreignait les règles interdisant médias synthétiques trompeurs. La porte-parole de YouTube, Ivy Choi, a déclaré qu'elle avait également supprimé les téléchargements de la vidéo.
Cette saga de courte durée pourrait être la première utilisation militarisée des deepfakes lors d’un conflit armé, même si l’on ne sait pas clairement qui a créé et distribué la vidéo et pour quel motif. La façon dont la contrefaçon s’est révélée si rapidement montre à quel point les deepfakes malveillants peuvent être vaincus, du moins lorsque les conditions sont réunies.
Ce contenu peut également être consulté sur le site d'où il origine.
Le vrai Zelensky a bénéficié mercredi de son appartenance à un gouvernement qui s’était préparé à de fausses attaques. Sa réponse rapide avec une vidéo le démystifiant, et la réaction agile d’Ukraine 24 et des plateformes sociales, ont contribué à limiter la durée pendant laquelle le clip a pu se diffuser sans contestation.
Ce sont des stratégies classiques pour se défendre contre une menace aussi nouvelle que les deepfakes politiques. La préparation et la réponse rapide étaient au cœur d'un [playbook pour vaincre les deepfakes](https://carnegieendowment.org/2019/09/05/campaigns-must-prepare-for-deepfakes-this-is-what-their-plan -devrait-ressembler à-pub-79792) que le Carnegie Endowment for International Peace a publié pour les campagnes politiques avant l'élection présidentielle américaine de 2020.
Zelensky a également bénéficié de sa position parmi les personnalités les plus en vue au monde et de la mauvaise qualité du deepfake. Le faux double présidentiel n’avait pas l’air naturel, avec un visage qui ne correspondait pas à son corps, et sa voix était différente de celle de sa cible.
D'autres conflits et dirigeants politiques pourraient avoir moins de chance et être plus vulnérables aux perturbations causées par les deepfakes, explique Sam Gregory, qui travaille sur la politique en matière de deepfakes au sein de l'association à but non lucratif Witness.
La notoriété de Zelensky a aidé l’avertissement de l’Ukraine il y a deux semaines à gagner une couverture médiatique internationale, et a également aidé sa réponse rapide de mercredi à se propager rapidement. Sa notoriété a peut-être également incité les sociétés de réseaux sociaux à réagir rapidement à la vidéo. Le porte-parole de Meta, Aaron Simpson, a refusé de dire comment il a détecté la vidéo ; Choi de YouTube aussi. La déclaration fournie par Kennedy de Twitter créditait des « reportages d’enquête externes » non précisés.
Toutes les personnes ciblées par les deepfakes ne seront pas en mesure de réagir avec autant d’agilité que Zelensky ou de trouver leur répudiation aussi largement acceptée. « L’Ukraine était bien placée pour y parvenir », déclare Gregory. "C'est très différent des autres cas, où même un deepfake mal réalisé peut créer une incertitude quant à son authenticité."
Gregory cite une vidéo parue au Myanmar l’année dernière, qui semblait montrer un ancien ministre du gouvernement détenu disant qu’il avait fourni de l’argent et de l’or à l’ancienne dirigeante du pays, Aung San Suu Kyi.
Le gouvernement militaire qui a déplacé Aung San Suu Kyi lors d’un coup d’État a utilisé ces images pour l’accuser de corruption. Mais dans la vidéo, le visage et la voix de l’ancien ministre étaient déformés, ce qui a amené de nombreux journalistes et citoyens à suggérer que le clip était truqué.
L’analyse technique n’a pas résolu le mystère, en partie parce que la vidéo est de mauvaise qualité et parce que l’ancien ministre et d’autres connaissant la vérité ne s’expriment pas aussi librement ni devant un public aussi large que Zelensky le pouvait mercredi. Même si les détecteurs automatiques de deepfake pourraient un jour aider à lutter contre les mauvais acteurs, ils sont toujours en cours de travail.
Les deepfakes sont encore généralement utilisés davantage à des fins de titillation ou de harcèlement que de grande tromperie, d'autant plus qu'ils deviennent plus faciles à créer. Un deepfake du président russe Vladimir Poutine [circulé sur Twitter](https://www.reuters.com/article/factcheck-putin-address/fact-check-doctored-video-lessly-to-show-putin-announcing-peace -idUSL2N2VK1CC) cette semaine également, bien qu'il ait été identifié comme inauthentique dès le départ. Le deepfake de Zelensky et les hacks qui l’accompagnent pourraient cependant représenter une nouvelle frontière inquiétante. La réponse rapide et réussie au clip montre comment, avec quelques ajustements et un meilleur timing, une attaque deepfake pourrait être une arme politique efficace.
"S'il s'agissait d'une vidéo plus professionnelle et qu'elle avait été diffusée au début d'une avancée russe plus réussie sur Kiev, elle aurait pu créer beaucoup de confusion", explique Samuel Bendett, qui suit la technologie de défense russe au sein de l'organisation à but non lucratif CNA. Alors que la technologie deepfake continue de devenir plus facile d'accès et [plus convaincante](https://www.wired.com/story /cheap-easy-deepfakes-closer-real-thing/), Zelensky ne sera probablement pas le dernier dirigeant politique visé par une fausse vidéo.