Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6301

Loading...
Nous avons publié une fausse vidéo sur huit réseaux sociaux. Une seule a indiqué aux utilisateurs qu'elle n'était pas réelle.
washingtonpost.com · 2025

Alors que les nouveaux outils d'intelligence artificielle généraient en ligne une avalanche de fausses vidéos et images de plus en plus réalistes, les entreprises technologiques ont élaboré un plan pour éviter toute confusion.

Des entreprises comme OpenAI, le créateur de ChatGPT, se sont engagées à apposer sur chaque fausse vidéo un marqueur inviolable afin de signaler sa création par l'IA. Les plateformes de réseaux sociaux, dont Facebook et TikTok, ont annoncé qu'elles rendraient ces marqueurs visibles pour les utilisateurs, permettant ainsi aux spectateurs de détecter les contenus falsifiés et aux experts d'en retracer l'origine.

Ce système était censé fournir une vérité numérique de base pour prévenir les deepfakes susceptibles de perturber les élections ou de provoquer des troubles. Les entreprises technologiques l'ont intégré à leur réponse aux autorités de régulation gouvernementales qui demandaient des garanties quant au pouvoir de l'IA.

Mais des tests menés par le Washington Post sur huit grandes plateformes sociales ont révélé qu'une seule d'entre elles ajoutait un avertissement à une vidéo IA mise en ligne. Cette information, fournie par YouTube (Google), était masquée dans une description jointe à la vidéo.

De plus, toutes les plateformes testées ont supprimé du clip le marqueur numérique révélant son caractère synthétique, empêchant ainsi quiconque d'en vérifier la provenance.

Les vidéos générées par l'IA ont aujourd'hui un pouvoir disruptif plus grand que jamais grâce aux avancées techniques qui rendent les faux clips indiscernables des séquences réelles, et à la large diffusion de cette technologie. Pourtant, aucune des plateformes testées ne respectait pleinement la norme de marquage des contenus IA prônée depuis des années par les entreprises technologiques, selon le Washington Post.

Les récentes avancées de l'IA laissent les internautes « incapables de gérer l'ampleur et le réalisme » des contenus IA, a déclaré Arosha Bandara, chercheur à l'Open University de Grande-Bretagne, qui a étudié l'étiquetage des contenus générés par l'IA. Un système de divulgation robuste est important, a-t-il ajouté. Une loi signée par le gouverneur de Californie Gavin Newsom la semaine dernière obligera, à partir de l'année prochaine, les grandes plateformes en ligne à rendre « visiblement disponible » toute information sur un contenu susceptible d'indiquer s'il a été modifié ou généré par l'IA.

Le Washington Post a testé les plateformes à l'aide d'une vidéo générée avec Sora, la puissante nouvelle application vidéo lancée par OpenAI.

Christa Muldoon, porte-parole de Google, a déclaré que la norme Content Credentials, utilisée pour marquer les fichiers multimédias et testée par le Washington Post, s'inscrivait dans sa stratégie visant à donner accès aux informations sur la création des contenus. « Nous sommes conscients que son adoption prendra du temps et que ce travail est en cours », a-t-elle déclaré.

Meta, OpenAI, TikTok, Snapchat et X n'ont pas répondu aux demandes de commentaires. LinkedIn et Pinterest ont refusé de commenter officiellement. Le Washington Post a conclu un partenariat de contenu avec OpenAI.

L'essor de l'IA a accru les inquiétudes concernant les contenus manipulés ou trompeurs. En 2021, six entreprises, dont Microsoft, Adobe et la BBC, se sont associées pour développer Content Credentials, une norme technique permettant d'ajouter des métadonnées aux fichiers multimédias afin de divulguer la création de leur contenu.

Les fichiers étiquetés avec Content Credentials possèdent des métadonnées inviolables, contenant des informations telles que le modèle de caméra ayant capturé la vidéo, le logiciel utilisé pour le montage ou le système d'IA qui l'a générée.

Ces données visent à offrir « un aperçu de l'historique du contenu, accessible à tous et à tout moment », selon la Coalition pour la provenance et l'authenticité du contenu, le groupe qui supervise la norme. Ce groupe compte des centaines de membres, dont des fabricants de puces comme Intel, des fabricants d'appareils photo comme Sony et Nikon, des agences de presse comme Associated Press, des géants de la technologie comme Google et Meta, ainsi que leurs concurrents émergents comme OpenAI et TikTok.

Mais Content Credentials est un système volontaire, et si les plateformes de réseaux sociaux ne l'appliquent pas, il est pratiquement inutile.

Pour tester quels réseaux sociaux appliquent pleinement la norme, le Washington Post a généré une vidéo avec Sora et a confirmé qu'elle incluait les données d'identification du contenu, mentionnant Sora et incluant les mentions « Créé à l'aide de l'IA générative » et « Publié par OpenAI ». Le même clip a été publié sur huit plateformes sociales avec les paramètres par défaut d'une nouvelle publication.

Aucune plateforme testée par le Washington Post n'a conservé les données d'identification du contenu de la vidéo ni n'a permis aux utilisateurs d'y accéder. Seul YouTube a affiché une indication que la vidéo n'était pas authentique, mais la mention de la plateforme a été ajoutée à la description jointe à la vidéo, visible uniquement par les utilisateurs qui cliquent dessus. La vidéo était décrite comme « Contenu modifié ou synthétique » et ne mentionnait pas l'IA.

Google, propriétaire de YouTube ; Meta, propriétaire de Facebook et Instagram ; et Microsoft, propriétaire de LinkedIn et d'OpenAI, sont membres du comité directeur de la coalition à l'origine de l'identification du contenu. TikTok est un membre général, tout comme Twitter, jusqu'à ce qu'Elon Musk l'acquière et la rebaptise X.

TikTok et LinkedIn ont annoncé l'année dernière qu'ils mettraient en œuvre les Content Credentials pour étiqueter les vidéos générées par l'IA. Meta a annoncé l'année dernière qu'il utiliserait cette norme pour étiqueter les images générées par l'IA, et Pinterest a fait de même en avril dernier, mais aucun des deux n'a indiqué qu'il ajouterait des marqueurs aux vidéos. Snapchat ne semble pas avoir de lien avec les Content Credentials.

Andrew Jenks, président exécutif de la coalition à l'origine des Content Credentials, a déclaré dans un communiqué que les utilisateurs doivent avoir accès à « la manière dont le contenu a été créé, y compris les outils utilisés ». Le secteur « doit continuer à faire évoluer ses approches pour garantir ce niveau de transparence à la fois possible et efficace », a-t-il ajouté.

Sous l'administration Biden, Google, OpenAI et d'autres entreprises d'IA se sont engagés à développer des systèmes tels que Content Credentials pour « garantir que les utilisateurs sachent quand un contenu est généré par l'IA ».

Sora, publiée par OpenAI ce mois-ci, représente un test majeur pour le potentiel créatif et commercial des vidéos d'IA hautement réalistes, mais aussi pour leurs inconvénients potentiels. L'application peut générer de courts clips intégrant l'image d'une personne réelle dans pratiquement n'importe quel scénario. Les utilisateurs peuvent choisir de partager leur image pour que d'autres l'intègrent à leurs créations.

Sur une page web intitulée « Lancer Sora de manière responsable », OpenAI indique ajouter les métadonnées d'identification de contenu à toutes les vidéos, qualifiant cette opération de « signature standard du secteur ». Les tests du Washington Post démontrent que le secteur n'utilise pas cette norme.

OpenAI a également listé d'autres mesures d'atténuation, qui présentent leurs propres failles.

L'entreprise ajoute un logo ou un filigrane transparent à tous les clips Sora, mais a suggéré qu'il pourrait être supprimé à l'avenir. Des services supprimant le filigrane ont fait leur apparition en ligne, et une version de Sora accessible aux développeurs de logiciels n'ajoute ni le filigrane ni les métadonnées d'identification de contenu. Les utilisateurs de l'abonnement « pro » peuvent télécharger certaines vidéos générées par Sora sans filigrane, selon la documentation de l'entreprise.

OpenAI a également déclaré intégrer des marqueurs d'authenticité invisibles dans les vidéos de Sora et avoir développé un système capable de les détecter « avec une grande précision », mais cet outil est réservé à un usage interne. Le projet SynthID de Google propose une approche similaire, mais, comme le détecteur de Sora, il n'est pas accessible au public.

D'autres entreprises vendent des outils visant à détecter du contenu manipulé à partir de motifs dans une image ou une vidéo. Ces outils se sont révélés peu fiables, et les plateformes de réseaux sociaux ne les ont pas déployés à grande échelle.

Pendant ce temps, l'industrie technologique continue de développer et de commercialiser des produits permettant à chacun de générer des clips vidéo de plus en plus convaincants en quelques secondes.

Une étude menée par Bandara de l'Open University, en collaboration avec Dilrukshi Gamage de l'Université de Colombo au Sri Lanka, a révélé que le fait d'étiqueter un contenu comme généré par l'IA permettait d'informer efficacement les utilisateurs de sa fausseté.

Mais trouver un moyen fiable de fournir de telles étiquettes s'avère complexe. « La dystopie potentielle est que tout contenu, vidéo ou photographie, doit être considéré comme suspect jusqu'à ce qu'il puisse être formellement authentifié comme étant authentique », a déclaré Bandara.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd