Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3382

Incidents associés

Incident 57311 Rapports
Deepfake Recordings Allegedly Influence Slovakian Election

Loading...
Une menace Deepfake frappe les élections slovaques - Transitions
tol.org · 2023

L'incident est considéré comme l'un des premiers exemples dans l'UE d'utilisation de l'IA pour manipuler l'image d'un journaliste – et pourrait laisser présager l'utilisation de tels outils pour discréditer les médias. De l'Institut international de la presse.

La campagne électorale parlementaire slovaque de 2023 est entrée dans l’histoire, et pas pour les bonnes raisons. Pour la première fois, les deepfakes ont joué un rôle dans la bataille pré-électorale. Deux jours avant les élections du 29 septembre, une vidéo avec un clip audio mettant en vedette Monika Todova, journaliste bien connue de la plateforme d'information indépendante Dennik N, et Michal Simecka, président du parti Slovaquie progressiste, a circulé sur les réseaux sociaux. La fausse conversation – qui semblait discuter des moyens de truquer les élections – n’a jamais eu lieu, mais la vidéo a quand même atteint des milliers d’utilisateurs des réseaux sociaux.

La « conversation » sur la fraude électorale était une pure invention. Mais dans une courte vidéo diffusée quelques jours seulement avant le scrutin, les voix générées numériquement du journaliste et du président du parti ont été entendues en parler. Dans la vidéo artificiellement manipulée, connue sous le nom de deepfake, une image statique du journaliste et de l’homme politique est montrée. La piste audio est de mauvaise qualité et ne semble pas authentique, mais leurs paroles figurent également dans les sous-titres. Les deux personnes impliquées ont immédiatement nié l’authenticité de la conversation. Plusieurs organismes de vérification des faits et experts ont également confirmé l’inauthenticité de la vidéo.

Selon les groupes de défense de la liberté de la presse, le deepfake impliquant Todova serait l'un des premiers exemples dans l'UE d'utilisation de technologies d'intelligence artificielle pour manipuler l'image d'un journaliste. diffamer et discréditer les médias.

Même si presque tout le monde peut créer des vidéos ou des clips audio deepfakes avec un minimum d’effort, les détecter n’est pas si simple. "Il n'existe pas encore d'outil vraiment efficace, accessible et surtout fiable pour détecter le contenu généré par l'IA, de l'audio à la vidéo en passant par les photos", a confirmé Michael Colborne, analyste chez Bellingcat, une société d'enquête basée aux Pays-Bas. groupe de journalisme spécialisé dans la vérification des faits et le renseignement open source. Il est également difficile de déterminer comment exactement il a été créé. "Qu'il ait été créé par quelqu'un qui l'a téléchargé puis utilisé l'intelligence artificielle pour le doubler, ou si quelqu'un a formé l'intelligence artificielle et a ensuite créé un fichier audio à partir de celle-ci, il est impossible de le dire", a ajouté Josef Slerka, analyste de données chez investigace.cz.

Retracer le chemin de la vidéo deepfake est également problématique. Le fait qu’il ait commencé à se propager à partir de Telegram, une application de messagerie connue pour ses paramètres de sécurité personnalisés, a rendu encore plus difficile la recherche de son origine. Identifier avec une certitude absolue la source originale diffusant le clip est presque impossible. Cependant, il est clair que l’enregistrement aurait pu servir deux objectifs : discréditer un journaliste et fournir une preuve du discours du Kremlin selon lequel les États-Unis voulaient manipuler les résultats des élections slovaques.

Schéma d'attaques discréditantes

Monika Todova, figure éminente du journalisme slovaque, a déjà fait l'objet de campagnes de diffamation. Selon une [analyse du Centre d'enquête de Jan Kuciak (ICJK](https://www.icjk.sk/275/Analyza-Pred-volbami-na-novinarov-a-media-najviac-utocil-Robert-Fico- a-strana-Smer-platili-si-aj-reklamu)), elle a été la journaliste la plus attaquée au cours des mois précédant les élections législatives. Bien que cette vidéo deepfake ait dépassé les tactiques précédentes, elle avait déjà fait l’objet de ces attaques bien auparavant.

Une campagne de diffamation continue est menée contre Todova, impliquant non seulement des politiciens mais aussi des plateformes de désinformation. Discréditation constante, discours de haine et même surveillance sont ce à quoi elle a dû faire face ces dernières années. Et ce sont souvent les politiciens qui alimentent les attaques, y compris lors de leurs conférences de presse. À l’avenir, les deepfakes pourraient constituer un tout nouvel outil de campagne de diffamation. Todova a déjà pris une action en justice et avec l’aide de la plateforme de protection Safe.Journalism.SK, a déposé une plainte pénale – pour suspicion de diffamation et d’atteinte pénale aux droits d’autrui.

Cependant, comme indiqué ci-dessus, cette vidéo deepfake peut également avoir servi un objectif différent : s’inscrire dans le récit du Kremlin selon lequel les États-Unis avaient l’intention d’interférer avec les résultats des élections slovaques. Les réseaux sociaux et les chaînes d'e-mails ont joué un rôle majeur dans la diffusion de la vidéo avant que les gens ne se rendent aux urnes, deux hommes politiques étant les plus partagés sur les réseaux sociaux : l'ancien président de la Cour suprême et ex-ministre Stefan Harabin et l'ancien parlementaire Peter Marcek. Tous deux sont de fervents défenseurs des positions pro-Kremlin et de la propagande dans le pays. Marcek lui-même a visité la Crimée annexée en 2018.

Les conclusions du Centre d’enquête Jan Kuciak (ICJK) en Slovaquie montrent que la fausse vidéo a d’abord été largement diffusée publiquement après avoir été partagée par le compte Telegram de Harabin. Cependant, il l'a transmis à partir d'un compte privé caché portant le nom de « Gabika Ha ». Le compte de l’ancien ministre de la Justice n’a pas partagé le contenu de cet utilisateur par hasard. Il l'a fait au moins 27 fois. Par ailleurs, l'analyse du contenu du compte montre que l'utilisateur du compte, « Gabika Ha », aurait dû accompagner en personne l'ancien ministre de la Justice lors d'un événement (Journées des salamandres) à Banska Stiavnica début septembre 2023. Lorsqu'on lui a demandé si le profil pouvait être associé à son épouse, Gabriela (en abrégé Gabika) Harabinova, un nom qui ressemble à « Gabika Ha », Harabin a raccroché avec le journaliste de l'ICJK.

Bien qu’elle ait initialement fait surface sur Telegram, la vidéo fabriquée s’est propagée à des dizaines de milliers d’utilisateurs via Facebook. Selon le fact-checker de l'AFP Robert Barca, qui vérifie la véracité des informations sur Facebook slovaque, celles-ci se sont propagées principalement via des comptes personnels, "comme la plupart des faux contenus viraux sur Facebook", a-t-il déclaré. Le poste le plus réussi, selon le Barça, était celui de Marcek.

Notamment, l'émergence de la vidéo deepfake impliquant Todova et Simecka a coïncidé avec un communiqué de presse de l'agence de renseignement russe SVR publié peu de temps avant la parution de la vidéo, alléguant l'implication des États-Unis dans l'influence du résultat. des élections slovaques. Le chef des renseignements du SVR, Sergueï Narychkine, a accusé les États-Unis d'avoir donné pour instruction à leurs alliés de coopérer avec les milieux économiques et politiques « pour garantir les résultats du vote exigés par les Américains », en visant notamment « la victoire de leur mandataire, le parti libéral Slovaquie progressiste (…) ». Le communiqué mentionne Simecka, le président du parti.

La veille du scrutin de septembre, les élections slovaques occupaient le devant de la scène dans les informations diffusées sur la chaîne de télévision d'État russe Rossija 1. Le [reportage](https://dennikn.sk/3628871/na-slovenske-volby-poslali -rusi-skusenu-propagandistku-ktorej-posluzil-harabin-teoriou-o-esete/?ref=list), l'objectif principal tournait autour du potentiel d'ingérence des États-Unis dans les résultats des élections slovaques. C'est Stefan Harabin qui a repris cette théorie devant la caméra et, selon les images, il a été le seul à accorder une interview à la chaîne, connue pour sa propagande.

À moins que les autorités slovaques chargées de l’application des lois ne soient en mesure d’identifier la source de l’attaque de désinformation, le motif ultime du deepfake pourrait ne jamais être établi. Cependant, à mesure que l’utilisation des outils d’IA deviendra plus accessible dans les années à venir, la probabilité d’attaques similaires de deepfake et de campagnes de désinformation soutenues par l’IA pourrait augmenter, posant de sérieuses questions non seulement pour la Slovaquie, mais pour l’Europe et le monde. Alors que les débats se poursuivent sur la manière dont l’IA affectera le journalisme et la liberté de la presse, cette affaire représente un exemple inquiétant des menaces que pourrait représenter la technologie des deepfakes, aujourd’hui et à l’avenir.

…

Karin Kovary Solymos est une rédactrice collaboratrice de l'Institut international de la presse (IPI), où cet article a été [publié à l'origine](https://ipi.media/slovakia-deepfake-audio-of-dennik-n-journalist -offre-un-exemple-inquiétant-d-ai-abuse/?mc_cid=5b8fd9f3d6&mc_eid=0948bad261), et travaille au Centre d'enquête Jan Kuciak (ICJK) en Slovaquie. Cet article a été commandé par l'IPI dans le cadre du Media Freedom Rapid Response (MFRR), un mécanisme à l'échelle européenne qui suit, surveille et répond aux violations de la presse et des médias. liberté dans les États membres de l’UE, les pays candidats et en Ukraine. Réimprimé avec autorisation, avec de légères modifications pour s'adapter au style de Transitions.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd