Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3340

Incidents associés

Incident 60110 Rapports
AI-Generated Fake Audio of Verbal Abuse Incident Circulates of British Labour Leader Keir Starmer

Loading...
Keir Starmer subit le premier moment de deepfake de la politique britannique. Ce ne sera pas le dernier
politico.eu · 2023

LONDRES — Le Royaume-Uni veut être le leader mondial en matière de sécurité de l'IA, mais chez lui, il a du mal avec sa menace la plus urgente.

Les craintes concernant la prolifération des médias générés par l'IA, connus sous le nom de deepfakes, se sont intensifiées ce week-end lorsqu'un clip audio montrant le chef de l'opposition britannique Keir Starmer injuriant ses employés est devenu viral.

Dimanche, des députés de tout le spectre politique britannique ont rapidement averti que le clip était faux. Mais lundi après-midi, le site recueillait encore des vues sur X, anciennement connu sous le nom de Twitter, et approchait les 1,5 million de visites.

Une enquête YouGov réalisée en mai auprès de plus de 100 députés britanniques a montré que l'essor du contenu généré par l'IA était leur principale préoccupation concernant les applications de l'IA. Il est facile de comprendre pourquoi.

Le ministre travailliste fantôme du numérique, Alex Davies-Jones, a déclaré lundi lors d'un événement en marge de la conférence du parti à Liverpool que les enregistrements du hansard des débats parlementaires offraient aux mauvais acteurs une bibliothèque « à la demande » de députés prononçant « presque n'importe quel mot » – quelque chose qui aiderait massivement le formation de modèles d’IA pour créer des simulations encore plus réalistes de politiciens avant les élections de 2024.

"Le défi est d'expliquer aux gens qu'il existe un tout autre ordre de risques avec l'IA générative", a expliqué Andrew Dudfield, responsable de l'IA au sein du groupe de vérification des faits Full Fact.

Mais malgré des années d'avertissements concernant la désinformation électorale, aucun régulateur n'est chargé d'y mettre fin et la réponse du gouvernement aux faux contenus, à travers le Online Safety Bill, commence à peine à porter ses fruits. s’attaquer au problème, préviennent les experts.

Publier de la désinformation pour affaiblir les opposants politiques n’a rien de nouveau, mais ce qui empêche les experts de dormir la nuit, c’est la facilité et l’ampleur avec lesquelles le progrès des outils d’IA générative permet à de faux contenus de se propager.

Certains espéraient que le projet de loi sur la sécurité en ligne pourrait être utilisé pour lutter contre la montée des deepfakes avant les élections britanniques de l’année prochaine.

Mais Dudfield de Full Fact décrit la législation déjà finalisée comme une « opportunité manquée ». « Il est difficile de voir comment cela répondrait de manière significative à une quelconque partie de la désinformation », a-t-il déclaré.

Le projet de loi habilite le régulateur Ofcom à garantir que les plateformes protègent les utilisateurs, en particulier les enfants, des « contenus préjudiciables », mais lorsqu’il s’agit de désinformation, les plateformes définissent et suivent leurs propres politiques. Tout ce que l’Ofcom peut faire, c’est vérifier qu’ils les suivent.

Et les conditions d’utilisation des plateformes n’arrêtent pas la propagation de la désinformation. Les politiques stipulent que les utilisateurs « ne peuvent pas partager de médias synthétiques, manipulés ou hors contexte », mais cela a n'a rien fait pour arrêter le clip de Starmer.

Un porte-parole de l'Ofcom a déclaré qu'il créerait un « comité consultatif » sur le problème dans le cadre du projet de loi sur la sécurité en ligne et qu'il menait également des recherches sur les deepfakes et le filigrane, mais a ajouté que cela n'en était qu'à un stade précoce.

On est loin des [recommandations d'un comité de la Chambre des Lords](https://committees.parliament.uk/committee/407/democracy-and-digital-technologies-committee/news/115316/democracy-under-threat- from-pandemic-of-misinformation-online-say-lords-committee/) en 2020.

Les législateurs de la commission de la démocratie et des technologies numériques souhaitaient que des dispositions du projet de loi sur la sécurité en ligne obligent les plateformes à prendre des mesures contre les contenus portant atteinte à la démocratie. Il a également recommandé aux régulateurs de créer un comité puissant chargé d'examiner la publicité politique.

Le comité des Lords était présidé par son homologue travailliste David Puttnam, aujourd’hui à la retraite, mais qui est toujours actif dans ce domaine à travers un groupe appelé Reform Political Advertising (RPA).

"Je suis tellement en colère. C'est très difficile pour moi d'avoir cette conversation", a-t-il déclaré à POLITICO. « Nous nous dirigeons vers des élections générales dans un an, sans qu’aucun parti ne lève la main pour dire que cela doit cesser. »

Il a déclaré craindre que « quelque chose d’horrible ne se produise » si les partis ne s’engagent pas à lutter contre la désinformation.

Lors du AI Safety Summit, l’impact sur les élections sera l’un des nombreux sujets abordés | Ian Forsyth/Getty Images

Rae Burdon, de Reform Political Advertising (RPA), a prévenu : « Aucun ministère du gouvernement ne peut réparer les deepfakes. Ce qu’ils peuvent mettre en place, c’est une réglementation qui aura pour effet de limiter et de sanctionner leur utilisation. »

Le Royaume-Uni ne manque pas de régulateurs, mais aucun n’a le pouvoir de mettre fin à la désinformation électorale. Les publicités politiques échappent au contrôle de l'Agence des normes de publicité (ASA), tandis que la Commission électorale ne s'intéresse qu'au financement des campagnes.

Un groupe possible où les régulateurs pourraient se réunir pour lutter contre la désinformation générée par l’IA est le Forum de coopération en matière de réglementation numérique (DRCF). Mais il s’agit d’un groupe volontaire de régulateurs dépourvus de pouvoirs statutaires. Un porte-parole a déclaré qu’ils ne travaillaient pas sur la désinformation générée par l’IA et a refusé d’être interviewé.

Le ministre chargé de lutter contre la désinformation est Paul Scully. Dans une lettre au député travailliste Darren Jones, qui a fait part de ses craintes concernant la désinformation générée par l'IA lors des élections, Scully a souligné la loi électorale, qui entre en vigueur en novembre, pour « renforcer l’intégrité des élections britanniques ».

Il donne de nouveaux pouvoirs à la Commission électorale pour faire respecter les [« empreintes numériques »](https://www.electoralcommission.org.uk/who-we-are-and-what-we-do/our-views-and-research /elections-act/introducing-digital-imprints) sur le matériel de campagne qui indiquera aux téléspectateurs qui a payé et produit une publicité en ligne.

Louise Edwards, directrice de la réglementation et de la transformation numérique à la Commission, a déclaré que la loi constituait un « grand pas en avant », mais qu'il manquait certaines recommandations clés. Elle a souligné qu’il n’existait toujours aucun moyen de classer les dépenses numériques afin que le public puisse voir comment les partis politiques ont dépensé leurs fonds de campagne.

Rae Burdon, de Reform Political Advertising (RPA), a prévenu : « Aucun ministère du gouvernement ne peut réparer les deepfakes. Ce qu’ils peuvent mettre en place, c’est une réglementation qui aura pour effet de limiter et de sanctionner leur utilisation. » | Olivier Douliery/AFP via Getty Images

Cela n'a aucune importance pour les faux clips provenant de comptes non affiliés à des partis politiques, comme le clip audio de Starmer.

Scully a également souligné le travail d'une unité gouvernementale appelée Counter Disinformation Unit (CDU) dans la lutte contre la désinformation en ligne. Mais le groupe a été malmené par une presse négative et les ministres ont tenté de s'en distancier.

La CDU répond aux « périodes de risque aigu de désinformation », a déclaré Scully, aux côtés de deux autres groupes gouvernementaux appelés Election Cell et [Defending Democracy Taskforce](https://www.gov.uk/government/news/ministerial-taskforce- rencontre-pour-s'attaquer-aux-menaces-de-l'État-pour-la-démocratie-britannique). Mais ces efforts se concentrent sur les acteurs internationaux qui sapent les élections britanniques, plutôt que sur la désinformation nationale.

En novembre, le Royaume-Uni organise un AI Safety Summit pour discuter des risques des modèles les plus avancés, connus sous le nom de Frontier AI. L’impact sur les élections est l’un des nombreux sujets abordés.

Un porte-parole du gouvernement a déclaré : « Nous reconnaissons la menace que peut représenter le contenu manipulé numériquement et prenons le problème très au sérieux. Notre priorité est toujours de protéger nos élections et de prendre des mesures pour répondre à toute menace contre les processus et les institutions démocratiques du Royaume-Uni. »

Quoi que fassent les gouvernements, une grande partie de la solution réside dans les entreprises technologiques.

En novembre, le Royaume-Uni organise un AI Safety Summit pour discuter des risques des modèles les plus avancés, connus sous le nom de Frontier AI. L'impact sur les élections est l'un des nombreux sujets sur la table | Patrick Lux/Getty Images

Un espoir, cité par ces entreprises, est le filigrane, qui permettrait d'apposer une marque sur le contenu pour montrer qu'il a été généré par l'IA. À la Maison Blanche en juillet, sept des plus grandes sociétés d’IA se sont engagées à « développer des mécanismes techniques robustes pour garantir que les utilisateurs sachent quand le contenu est généré par l’IA, comme un système de filigrane ».

Dudfield a déclaré qu'il s'agissait d'une étape bienvenue, mais a souligné que beaucoup de travail restait encore à faire, notamment sur le filigrane. « La technologie sous-jacente existe », a-t-il expliqué. « Mais qui étiquette le contenu ? Est-ce la plateforme de la personne qui l’a créée ?

Déterminer comment les grandes technologies mettront en œuvre les engagements de la Maison Blanche est l'un des objectifs du Sommet britannique sur la sécurité de l'IA.

Google fait partie des entreprises qui découvrent comment filigraner le contenu et a lancé un test de la technologie fin août. Les plateformes peuvent également s’appuyer sur les équipes et politiques de désinformation existantes, qui interdisent les faux contenus générés par l’IA.

Les autres solutions industrielles suggérées vont des plus modestes aux plus extrêmes. Sam Altman d'OpenAI, qui a tweeté sur ses craintes concernant les élections en août, a appelé à une « sensibilisation ». Le fondateur d’Inflection AI, Mustafa Suleyman, a quant à lui été beaucoup plus direct, écrivant sur LinkedIn que l’IA devrait être interdite dans « tout type de campagne électorale ».

Mais Puttnam n’était pas d’accord et a soutenu qu’ils devraient plutôt être utilisés pour accroître la confiance. "Les outils nous permettent d'identifier plus facilement quand un mensonge est proféré", a-t-il déclaré. « La question à poser aux parties est la suivante : allez-vous consacrer du temps, des efforts et de l’énergie à la manière de l’utiliser pour désinformer ou à la manière d’arrêter la désinformation ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd