Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4109

Incidents associés

Incident 57311 Rapports
Deepfake Recordings Allegedly Influence Slovakian Election

Loading...
L’intelligence artificielle n’est intervenue dans les élections qu’au dernier moment. C'était juste un apéritif, la prochaine fois ce sera pire
zive.aktuality.sk · 2023

Les partis politiques se sont entraidés directement avec de faux enregistrements et visuels, mais aussi avec des acteurs inconnus en arrière-plan. Ils ont également abusé du moratoire.

Avec l'essor des outils dits d'intelligence artificielle générative, capables de créer des images, des vidéos ou des enregistrements audio presque à la demande, des inquiétudes légitimes quant à leur utilisation abusive dans des situations sensibles, comme élections .

Les élections parlementaires anticipées ont été les premières depuis que les outils mentionnés sont devenus accessibles au grand public. Et comme beaucoup s’y attendaient, leurs abus ont bel et bien eu lieu. En fin de compte, cependant, pas à grande échelle : leur potentiel n’a certainement pas été exploité.

Néanmoins, les derniers jours de la campagne électorale ont apporté plusieurs enseignements, conclusions et avertissements intéressants pour l’avenir. Qu'est-ce qui nous attend peut-être bientôt ? Dans l'article, vous lirez :

  • Quels documents spécifiques manipulés ont été diffusés à la fin de la campagne électorale.
  • Sous quel format ont-ils été distribués, quel était leur contenu et leur objectif.
  • Quel parti s'est servi de l'intelligence artificielle et a abusé du vote des opposants politiques.
  • Quelle était la principale faiblesse des faux matériaux et, inversement, quelle était leur arme la plus puissante.
  • Quelles sont les principales leçons, à quoi pouvons-nous nous attendre lors des prochaines élections de l'année prochaine et comment les électeurs eux-mêmes peuvent-ils aggraver la situation.

"La similitude est purement fortuite"

La campagne préélectorale a été marquée par de nombreuses désinformations, mais les enregistrements ou les audios délibérément édités et créés à l’aide de l’intelligence artificielle ne sont apparus que dans sa toute dernière version.

Cinq jours seulement avant les élections, le mouvement d’extrême droite Republika s’est ainsi entraidé. Il a publié deux spots promotionnels attaquant la communauté LGBTI et utilisant des imitations crédibles de la voix de la présidente Zuzana Čaputová et du leader de la Slovaquie progressiste Michal Šimečka.

"Les voix à cet endroit sont fictives et leur ressemblance avec des personnes réelles est purement fortuite. Mais quoi qu’il en soit, votez pour la République », a-t-on pu entendre dans les vidéos, admettant que Čaputová et Šimečka n’ont jamais fait les affirmations présentées.

Les grandes plateformes numériques appliquent des règles relativement strictes pour ce que l’on appelle les deepfakes, c’est-à-dire les contenus créés ou manipulés artificiellement. Cependant, ils ferment généralement les yeux lorsque l’auteur admet que le contenu n’est pas authentique.

Ce fut également le cas de la République. Meta, l'opérateur de Facebook, a visionné les vidéos du mouvement d'extrême droite. Elle a pris en compte l’avertissement selon lequel les voix des personnes dans la vidéo n’étaient pas réelles et les a également perçues comme une satire. Rasťo Kužel de l'organisation non gouvernementale Memo 98 l'a confirmé aux rédacteurs de Živé.sk, qui était en contact avec Meta au sujet du contenu manipulateur de la campagne.

Ils sont allés à la limite

La vidéo [de l'atelier du média extrémiste Kulturblog] (https://zive.aktuality.sk/clanok/VASIltm/sud-udajne-rozhodol-ze-kulturblog-su-extremisti-a-odsudil-mazurekovho-asistenta/) , qui a publié son propre enregistrement audio manipulé du président Čaputová une semaine avant les élections.

"Après avoir suivi régulièrement et à long terme les émissions de Kulturblog, j'ai décidé d'exprimer mon soutien à Milan Mazurek lors des prochaines élections. Entourez le numéro 150 sur la liste des candidats de la République", dit la voix forgée du président sur l'enregistrement.

L’enregistrement lui-même ne contient aucun avertissement indiquant qu’il s’agit d’une œuvre d’intelligence artificielle. Kulturblog l'a déclaré uniquement dans la description textuelle de l'enregistrement, qu'il a publiée [sur Telegram] (https://zive.aktuality.sk/clanok/XdaPqhh/sloboda-slova-po-rusky-co-je-telegram-a- ako- fonctionne/). Il pourrait potentiellement se propager davantage sans que l’on sache qu’il s’agit d’un faux.

Il n’est pas du tout surprenant que Kulturblog ait réalisé cet enregistrement en faveur de la République. Son [lien personnel et financier avec la République est connu de longue date] (https://zive.aktuality.sk/clanok/zoTm0wz/google-pred-volbami-zavaril-republike-z-youtube-zmazal-mazureka-kulturblog -a- autres/). Milan Uhrík et Milan Mazurek ont même leurs propres émissions régulières sur Kulturblog.

Ne touchez pas à notre bière !

Cependant, des contenus véritablement malveillants ne sont apparus sur les réseaux sociaux qu’à l’approche du moratoire. Le mardi 26 septembre, il y a eu une attaque directe contre Progresívne Slovensko – une vidéo présentant l'intention fabriquée de toutes pièces du PS d'augmenter le prix de la bière de 70 à 100 pour cent.

Un mensonge très simple, susceptible d’atteindre (et d’influencer) un public plus large, a apparemment été présenté par Michal Šimečka lui-même. "Une augmentation drastique du prix de la bière est donc l'un des points clés de la Slovaquie progressiste et ce sera l'une des premières choses que le gouvernement dirigé par la Slovaquie progressiste mettra en œuvre", a déclaré la fausse voix.

Comme dans le cas du contenu de Republika, il s’agissait là aussi de faux audio diffusés sous forme de vidéo avec des visuels illustratifs. Nous n'avons donc pas vu Šimečka parler directement, nous l'avons seulement entendu parler sur fond de sa photo et d'une image illustrative d'une pinte de bière.

La vidéo s'est également répandue de manière virale grâce au fait qu'elle a été partagée par l'ancien candidat du parti d'extrême droite ĽSNS de Kotleb, Rudolf Huliak, qui a finalement [rejoint samedi le Parlement](https://www.aktuality.sk/clanok/HnBOKeR /vysledky-volieb-2023 -look-at-the-list-of-elected-deputes-to-nr-sr/) sur le candidat du SNS (il n'en fait pas partie).

Le timing était la clé

Concernant le sujet de la bière, c'est une affirmation relativement facilement réfutable : le PS n'a rien de similaire dans son programme et Šimečka n'a mentionné rien de similaire dans aucun des entretiens pré-électoraux.

Cependant, cela n'a pas été aussi simple dans le cas de l'attaque suivante, qui a commencé à se propager massivement le jeudi 28 septembre, déjà pendant le moratoire.

Encore une fois, il s'agissait d'une vidéo contenant de l'audio, à l'arrière-plan de laquelle se trouvait une image statique sous forme de photographies des « protagonistes » : Michal Šimečka et Monika Tódová, journaliste de Denník N. La vidéo semblait être un enregistrement de une conversation téléphonique entre les personnes mentionnées. Le sujet était la manipulation des bulletins de vote et une récompense pour le journaliste.

Ici, la situation était beaucoup plus compliquée. A cette époque, les derniers sondages préélectoraux positionnaient déjà la Slovaquie progressiste dans la position de challenger direct du Smer-SD. L'enregistrement secret inventé avait pour but de discréditer le parti et éventuellement son succès électoral.

En outre, pendant le moratoire, non seulement les partis candidats eux-mêmes, mais aussi les médias ont des options limitées. Ils ne peuvent rien publier en rapport avec les élections. Au contraire, ils doivent peser chaque mot pour ne pas violer le moratoire.

Cela pourrait entraîner un retard dans la publication des [articles de presse sur le sujet](https://zive.aktuality.sk/clanok/G3Zgfjc/pozor-na-umele-hlasy-politika-prezidentky-ci-novinarky-maju- opinovljit-hlasovanie-ludi /). De plus, la réfutation indépendante du canular prend un certain temps, et dans cette période sensible pour les médias, juste avant le jour du scrutin, des informations véridiques peuvent pas atteint le public à temps pour tous les électeurs.

Une telle attaque stratégiquement programmée peut ainsi atteindre son objectif et toucher une certaine partie de la population. Mais en même temps, c’est une leçon pour l’avenir pour les hommes politiques, les médias ou les autorités et institutions qui veillent à l’intégrité du processus électoral.

Faible qualité ? Parfois ça suffit

Combien de personnes les vidéos manipulatrices pourraient-elles influencer ? C’est difficile à estimer. Mais certainement pas autant que cela pourrait être le cas si des acteurs douteux utilisaient tout le potentiel de l’intelligence artificielle.

Au lieu de cela, nous avons eu droit à des enregistrements de très mauvaise qualité. En particulier, l'entretien fictif de Šimečka avec Tódová a été traité d'une manière carrément amateur. La voix off semblait extrêmement peu naturelle et l'intonation ne correspondait pas du tout au "scénario". Combinée aux révélations choquantes et à la manière apparemment légère avec laquelle les acteurs présumés les ont révélées, il était clair pour beaucoup qu'ils n'écoutaient pas. enregistrement authentique.

Cependant, un certain nombre de personnes se sont fait prendre. On parle de dizaines de milliers de vues et de milliers de partages rien que sur Facebook, sans compter la diffusion communautaire via les plateformes de communication comme WhatsApp ou Telegram. C’était littéralement un moyen peu coûteux de convaincre une partie des électeurs que le PS est leur ennemi.

Préparons les prochaines élections

L’intelligence artificielle peut déjà faire des merveilles aujourd’hui. Y compris la génération de contenu crédible basé sur un certain nombre de documents d'entrée accessibles au public (photos et vidéos de personnalités publiques et leurs échantillons de voix). D’ailleurs, nous en avons parlé [dans un gros article en août] (https://zive.aktuality.sk/clanok/CDMxaRJ/napodobnia-vas-hlas-i-tvar-sofistikovane-ai-podvody-skusaju-aj- na -slovaque-firmy/).

Ce que nous avons vu juste avant les élections n’est qu’un léger mélange de ce que nous pourrions rencontrer l’année prochaine lors de la campagne pour les élections présidentielles ou pour le Parlement européen.

De plus en plus d’outils utilisant l’intelligence artificielle générative seront accessibles non seulement aux acteurs néfastes, mais aussi au grand public, y compris gratuitement. Ou ceux qui ne disposent pas de limites de sécurité suffisantes et facilitent ainsi encore plus la création de contenus malveillants.

Cette fois, les désinformateurs ont simplement essayé les possibilités de l'IA, ils ont pu évaluer l'effet résultant et la volonté des gens de croire facilement même les contrefaçons les moins convaincantes.

Dans quelques mois, outre les enregistrements audio, nous pourrions également rencontrer de fausses vidéos dans lesquelles des hommes politiques apparaîtront dans des situations qui ne se sont jamais produites. De tels deepfakes seront encore plus crédibles. Après tout, les gens croient plus facilement ce qu’ils voient de leurs propres yeux, pour ainsi dire.

En outre, avec la disponibilité croissante de ces outils (surtout sous forme gratuite) pour le grand public, le risque que les électeurs produisent eux-mêmes de manière proactive de fausses vidéos augmente également. Soit dans le but d’aider son candidat, soit dans l’intention de nuire à son adversaire.

Les possibilités sont presque illimitées et la question n'est pas de savoir si cela se produira réellement, mais si cela se produira déjà lors des élections de l'année prochaine ou lors des prochaines.

Voir le rapport original pour des copies des deepfakes en question.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd