Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3341

Incidents associés

Incident 60110 Rapports
AI-Generated Fake Audio of Verbal Abuse Incident Circulates of British Labour Leader Keir Starmer

Loading...
Un faux audio de Sir Keir Starmer publié le premier jour de la conférence travailliste
news.sky.com · 2023

Des vidéos deepfake de Sir Keir Starmer ont été publiées le premier jour de la conférence du Parti travailliste, ce qui souligne la menace posée par la technologie deepfake et l'IA dans la politique britannique.

La fausse vidéo du leader travailliste est apparue dimanche matin sur X, anciennement connu sous le nom de Twitter, alors que de hauts responsables et des militants du parti se réunissaient à Liverpool.

Un deepfake implique généralement une image ou une vidéo dans laquelle une personne ou un objet est manipulé visuellement ou audiblement pour dire et faire quelque chose qui est fabriqué.

Le premier faux audio, publié par un compte comptant moins de 3 000 abonnés, prétend montrer le leader travailliste abusant des membres du parti – mais l'audio n'est pas réel et l'incident n'a pas eu lieu.

La seconde fait valoir que Sir Keir critique la ville de Liverpool.

L'émergence de l'audio n'est pas sans rappeler les récentes élections en Slovaquie, où un faux enregistrement audio a émergé de Michal Simecka, le chef du Parti progressiste slovaque, apparemment engagé dans une conversation avec un éminent journaliste d'un quotidien discutant de la façon de truquer le élection.

Les deux hommes ont immédiatement confirmé que l'audio était faux et que la conversation n'avait pas eu lieu.

L'analyse de l'agence de presse AFP a révélé que l'audio montrait des signes de manipulation par l'IA.

Ancien Premier ministre populiste [Robert Fico a finalement remporté les élections](https://news.sky.com/story/slovakia-elections-pro-russia-former-pm-robert-fico-wins-poll-but-must -forge-coalition-12973943) sur un ticket pour retirer le soutien militaire de son pays à l'Ukraine.

On ne sait pas exactement quel impact, le cas échéant, la fausse vidéo a eu sur le résultat de l'élection, mais la journaliste qui y figurait, Monika Todova, a déclaré plus tard au Times qu'elle en était « dégoûtée ».

"Ce sont mes mots, mais pas mes phrases", a-t-elle déclaré au journal.

"Mes amis et nos lecteurs se rendent compte que c'est un deepfake, mais les gens qui ont voté pour le Smer-SD ou la République [un parti d'extrême droite] pensent que c'est réel."

Dans notre pays, des avertissements similaires ont été émis concernant la menace que l’IA représente pour la démocratie britannique.

Dame Wendy Hall, l'une des plus grandes informaticiennes au monde, a lancé un avertissement sévère dans une interview avec Beth Rigby de Sky, dans laquelle elle a déclaré que l'IA menacerait la démocratie britannique avant les prochaines élections ici et aux États-Unis.

Spreaker Ce contenu est fourni par Spreaker, qui peut utiliser des cookies et d'autres technologies. Pour vous montrer ce contenu, nous avons besoin de votre autorisation pour utiliser des cookies. Vous pouvez utiliser les boutons ci-dessous pour modifier vos préférences afin d'activer les cookies Spreaker ou pour autoriser ces cookies une seule fois. Vous pouvez modifier vos paramètres à tout moment via les [Options de confidentialité] (#privacy-options). Malheureusement, nous n'avons pas été en mesure de vérifier si vous avez consenti aux cookies de Spreaker. Pour afficher ce contenu, vous pouvez utiliser le bouton ci-dessous pour autoriser les cookies Spreaker pour cette session uniquement.

S'exprimant sur Beth Rigby Interviews..., Dame Wendy Hall a déclaré que la capacité de l'IA à nuire à la démocratie devrait être plus immédiate. préoccupation que toute menace existentielle posée par la technologie.

"L'année prochaine, nous assisterons à une croissance de la désinformation, des contrefaçons profondes de ce monde, parce que l'IA rend cela très facile", a-t-elle déclaré.

"Il suffit de retirer les outils d'Internet et il devient de plus en plus difficile de détecter qu'une vidéo, une photo ou un texte a été falsifié."

Dame Wendy siège au Conseil gouvernemental de l'IA, un « comité d'experts indépendants » fournissant « des conseils au gouvernement et à un leadership de haut niveau de l'écosystème de l'IA ».

Elle est également professeure regius d'informatique à l'Université de Southampton, où l'une de ses spécialités est l'IA.

"Nous avons deux élections majeures l'année prochaine - aux États-Unis et au Royaume-Uni - et l'UE a également des élections", a-t-elle déclaré.

"Je vois cela comme une menace pour la démocratie. Dans le sens où nous devons aider les gens à comprendre d'où ils reçoivent les messages.

"Je pense que c'est plus important que de s'inquiéter d'une menace existentielle dans 100 ans, mais je ne dis pas que la menace existentielle n'est pas là", a-t-elle ajouté.

"Nous devons donc nous préparer au fait que nous gardons l'IA sous notre contrôle, afin de ne pas devenir les esclaves de ce maître, et c'est là que la réglementation entre en jeu."

Le gouvernement doit organiser un sommet mondial sur l’IA les 1er et 2 novembre, au cours duquel Dame Wendy souhaite que le gouvernement se concentre sur les contrefaçons profondes.

"Nous avons besoin que les gens rassemblent assez rapidement la technologie utilisée pour détecter les contrefaçons et s'assurer que quelque chose provient d'une source fiable", a-t-elle déclaré.

Ce n’est pas seulement le monde politique qui est menacé par l’IA.

L'acteur Tom Hanks s'est récemment prononcé après une [fausse publicité semblant utiliser son visage pour promouvoir un régime de soins dentaires](https://news.sky.com/story/tom-hanks-warns-fans-not-to-fall -for-deepfake-advert-using-his-face-12974902) mais qui, selon M. Hanks, avait utilisé une version artificielle de lui par IA sans son autorisation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd