Problème 6737
Un outil YouTube qui utilise les données biométriques des créateurs pour les aider à supprimer les vidéos générées par IA qui exploitent leur image permet également à Google d'entraîner ses modèles d'intelligence artificielle sur ces données sensibles, ont indiqué des experts à CNBC.
En réponse aux inquiétudes exprimées par des spécialistes de la propriété intellectuelle, YouTube a déclaré à CNBC que Google n'avait jamais utilisé les données biométriques des créateurs pour entraîner des modèles d'IA et qu'il revoyait actuellement le libellé du formulaire d'inscription de l'outil afin d'éviter toute confusion. YouTube a toutefois précisé à CNBC qu'il ne modifierait pas sa politique de base.
Cette divergence met en lumière un clivage plus profond au sein d'Alphabet (https://www.cnbc.com/quotes/GOOGL/), où Google développe activement ses efforts en matière d'intelligence artificielle (IA) (https://www.cnbc.com/2025/11/27/how-google-put-together-the-pieces-for-its-ai-comeback.html), tandis que YouTube s'efforce de préserver la confiance des créateurs et des ayants droit qui dépendent de la plateforme pour leurs activités.
YouTube étend son système de « détection de ressemblance », un outil lancé en octobre qui signale l'utilisation non autorisée du visage d'un créateur dans les deepfakes (ou vidéos truquées créées par IA). Cette fonctionnalité est déployée auprès de millions de créateurs du Programme Partenaire YouTube, face à la prolifération des contenus manipulés par IA sur les réseaux sociaux.
Cet outil analyse les vidéos mises en ligne sur YouTube afin d'identifier les passages où le visage d'un créateur a pu être modifié ou généré par intelligence artificielle. Les créateurs peuvent ensuite décider de demander ou non le retrait de la vidéo. Pour utiliser cet outil, YouTube exige qu'ils téléchargent une pièce d'identité officielle et une vidéo biométrique de leur visage. La biométrie consiste à mesurer les caractéristiques physiques d'une personne afin de vérifier son identité.
Selon des experts, en liant cet outil à la politique de confidentialité de Google, YouTube ouvre la porte à de futurs abus des données biométriques des créateurs. Cette politique stipule que le contenu public, y compris les informations biométriques, peut être utilisé « pour entraîner les modèles d'IA de Google et développer des produits et des fonctionnalités ».
« La reconnaissance faciale est une fonctionnalité entièrement optionnelle, mais elle nécessite une référence visuelle pour fonctionner », a déclaré Jack Malon, porte-parole de YouTube, à CNBC. Notre approche concernant ces données reste inchangée. Comme l'indique notre Centre d'aide depuis le lancement, les données fournies pour l'outil de reconnaissance faciale sont utilisées uniquement à des fins de vérification d'identité et pour alimenter cette fonctionnalité de sécurité spécifique.
YouTube a déclaré à CNBC qu'il « étudie des solutions pour clarifier le langage utilisé dans le produit ». L'entreprise n'a pas précisé les modifications apportées ni leur date d'entrée en vigueur.
Les experts restent prudents et affirment avoir fait part de leurs inquiétudes concernant cette politique à YouTube il y a plusieurs mois.
« Alors que Google se lance dans une course effrénée à l'IA et que les données d'entraînement deviennent une ressource stratégique précieuse, les créateurs doivent bien réfléchir à l'opportunité de laisser leur image être contrôlée par une plateforme plutôt que d'en être les seuls propriétaires », a déclaré Dan Neely, PDG de Vermillio, une entreprise qui aide les particuliers à protéger leur image contre toute utilisation abusive et facilite également l'octroi de licences sécurisées pour les contenus autorisés. « Votre image sera l'un des atouts les plus précieux à l'ère de l'IA, et une fois que vous en aurez cédé le contrôle, vous risquez de ne jamais le récupérer. »
Vermillio et Loti sont des sociétés tierces qui collaborent avec des créateurs, des célébrités et des entreprises de médias pour surveiller et faire respecter les droits à l'image sur Internet. Grâce aux progrès de la génération vidéo par IA, leur utilité pour les détenteurs de droits de propriété intellectuelle s'est considérablement accrue.
Le PDG de Loti, Luke Arrigoni, a déclaré que les risques liés à la politique biométrique actuelle de YouTube sont « énormes ».
« Comme la politique actuelle permet à quiconque d'associer un nom aux données biométriques d'un visage, il serait possible de créer un avatar synthétique ressemblant à la personne », a expliqué M. Arrigoni.
Neely et Arrigoni ont tous deux déclaré qu'ils ne recommanderaient pas actuellement à leurs clients de s'inscrire au service de détection de ressemblance sur YouTube.
Amjad Hanif, responsable des produits pour créateurs chez YouTube, a expliqué que YouTube avait conçu son outil de détection de ressemblance pour fonctionner « à l'échelle de YouTube », où des centaines d'heures de nouvelles vidéos sont mises en ligne chaque minute. Cet outil sera accessible aux plus de 3 millions de créateurs du Programme Partenaire YouTube d'ici la fin janvier, a-t-il précisé.
« Notre succès est lié à celui des créateurs », a déclaré Hanif à CNBC. « Nous sommes là pour accompagner et soutenir l'écosystème des créateurs, et c'est pourquoi nous investissons dans des outils pour les accompagner dans leur développement. »
Ce déploiement intervient alors que les outils de création vidéo par IA gagnent rapidement en qualité et en accessibilité, soulevant de nouvelles inquiétudes pour les créateurs dont l'image et la voix sont essentielles à leur activité.
Mikhail Varshavski, un créateur YouTube, médecin connu sous le nom de Docteur Mike sur la plateforme, a indiqué utiliser l'outil de détection de ressemblance du service pour examiner des dizaines de vidéos manipulées par IA chaque semaine.
Varshavski est présent sur YouTube depuis près de dix ans et compte plus de 14 millions d'abonnés. Il réalise des vidéos où il réagit à des séries médicales, répond à des questions sur les tendances en matière de santé et démystifie certaines idées reçues. Il s'appuie sur sa crédibilité de médecin certifié pour informer son public.
Les progrès rapides de l'intelligence artificielle ont facilité la tâche des personnes mal intentionnées qui peuvent copier son visage et sa voix dans des vidéos truquées (deepfakes) susceptibles d'induire ses abonnés en erreur et de leur donner de faux conseils médicaux, explique Varshavski.
Il a découvert pour la première fois un deepfake de lui-même sur TikTok, où un double généré par IA faisait la promotion d'un complément alimentaire « miracle ».
« J'ai été évidemment très perturbé, car j'ai passé plus de dix ans à gagner la confiance de mon public, à lui dire la vérité et à l'aider à prendre des décisions éclairées en matière de santé », confie-t-il. « Voir quelqu'un utiliser mon image pour tromper les gens et leur vendre un produit inutile, voire dangereux, m'a profondément ébranlé. »
Les outils de génération vidéo par IA comme Veo 3 de Google et Sora d'OpenAI ont considérablement simplifié la création de deepfakes de célébrités et de créateurs comme Varshavski. En effet, leur image est fréquemment présente dans les ensembles de données utilisés par les entreprises technologiques pour entraîner leurs modèles d'IA.
Veo 3 est entraîné sur un sous-ensemble des plus de 20 milliards de vidéos mises en ligne sur YouTube, comme l'a rapporté CNBC en juillet. Cela pourrait inclure plusieurs centaines d'heures de vidéo de Varshavski.
« Les deepfakes se sont largement répandus et multipliés », a déclaré Varshavski. « J'ai vu des chaînes entières créées pour exploiter ces deepfakes générés par l'IA, que ce soit pour tromper les gens et leur vendre un produit ou simplement pour harceler quelqu'un. »
Actuellement, les créateurs n'ont aucun moyen de monétiser l'utilisation non autorisée de leur image, contrairement aux options de partage des revenus offertes par le système Content ID de YouTube pour les contenus protégés par le droit d'auteur, généralement utilisé par les entreprises possédant d'importants catalogues de droits. Hanif, de YouTube, a indiqué que l'entreprise étudie la possibilité de mettre en place un modèle similaire pour l'utilisation d'images générées par l'IA à l'avenir.
Plus tôt cette année, YouTube a donné aux créateurs la possibilité d'autoriser des entreprises tierces spécialisées en IA à s'entraîner sur leurs vidéos. Hanif a précisé que des millions de créateurs ont opté pour ce programme, sans aucune garantie de compensation.
Hanif a ajouté que son équipe travaille toujours à améliorer la précision du produit, mais que les premiers tests sont concluants, sans toutefois fournir de chiffres précis.
Concernant les demandes de retrait sur la plateforme, Hanif a indiqué qu'elles restent faibles principalement parce que de nombreux créateurs choisissent de ne pas supprimer les vidéos signalées.
« Ils sont contents de savoir que le contenu est signalé, mais ne jugent pas nécessaire de le faire retirer », a expliqué Hanif. « De loin, la réaction la plus fréquente est de dire : "Je l'ai vu, mais ça ne me dérange pas." »
Des agents et des défenseurs des droits ont déclaré à CNBC que le faible nombre de retraits est davantage dû à la confusion et au manque de sensibilisation qu'à une réelle aisance avec les contenus générés par l'IA.