Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6889

Incidents associés

Incident 13861 Rapport
NPR Host David Greene Alleged Google's NotebookLM Replicated His Voice Without Consent, Prompting Lawsuit

Loading...
Il a passé des décennies à perfectionner sa voix. Aujourd'hui, il affirme que Google la lui a volée.
washingtonpost.com · 2026

David Greene n'avait jamais entendu parler de NotebookLM, l'outil d'intelligence artificielle de Google qui fait le buzz et qui permet de créer des podcasts à la demande, jusqu'à ce qu'un ancien collègue lui envoie un courriel pour lui demander s'il avait prêté sa voix.

« Alors… je suis probablement la 148e personne à me poser la question, mais as-tu autorisé Google à utiliser ta voix ? » lui demandait son ancien collègue dans un courriel datant de l'automne 2024. « On dirait vraiment ta voix ! »

Greene, un vétéran de la radio publique qui a animé l'émission « Morning Edition » sur NPR et le podcast politique « Left, Right & Center » sur KCRW, a découvert l'outil et a écouté les deux co-animateurs virtuels – un homme et une femme – échanger des plaisanteries.

« J'étais complètement sidéré », a déclaré Greene. « C'est un moment étrange où l'on a l'impression de s'écouter parler. »

Greene avait l'impression que la voix masculine était identique à la sienne : du rythme et de l'intonation jusqu'aux rares « euh » ou « genre » qu'il s'était efforcé de minimiser au fil des ans, sans jamais les éliminer complètement. Il raconte l'avoir fait écouter à sa femme, qui en fut stupéfaite.

Alors que les courriels et les SMS affluaient d'amis, de membres de sa famille et de collègues lui demandant si la voix du podcast animé par l'IA était bien la sienne, Greene s'est persuadé d'avoir été victime d'une escroquerie. Il poursuit désormais Google en justice, l'accusant d'avoir violé ses droits en créant un produit qui reproduisait sa voix sans paiement ni autorisation, donnant ainsi aux utilisateurs le pouvoir de lui faire dire des choses qu'il n'aurait jamais dites.

Google a déclaré au Washington Post, jeudi, que la voix masculine du podcast NotebookLM n'avait aucun lien avec Greene. Un tribunal du comté de Santa Clara, en Californie, pourrait être saisi afin de déterminer si la ressemblance est suffisamment frappante pour que le public puisse la confondre avec sa voix, et, le cas échéant, quelles mesures prendre.

Cette affaire est la dernière en date à opposer les droits des créateurs humains à ceux d'une industrie de l'IA en plein essor, qui promet de transformer l'économie en permettant de générer à la demande des textes, des images et des vidéos d'un réalisme saisissant. Derrière les voix artificielles de NotebookLM et d'outils similaires se cachent des modèles de langage entraînés sur d'immenses bibliothèques d'écrits et de discours de personnes réelles qui n'ont jamais été informées de l'utilisation qui serait faite de leurs mots et de leurs voix – soulevant ainsi d'importantes questions de droit d'auteur et de propriété intellectuelle.

Des voix falsifiées à des fins politiques à OpenAI vantant une voix féminine pour ChatGPT ressemblant à celle de l'actrice Scarlett Johansson, en passant par les publicités frauduleuses utilisant des deepfakes, notamment une vidéo de Taylor Swift faisant la promotion de produits Le Creuset, les problèmes soulevés par la plainte de Greene « vont beaucoup se poser », a déclaré James Grimmelmann, professeur de technologies numériques et… Le département de droit de l'information de l'Université Cornell.

Selon Grimmelmann, une question cruciale que les tribunaux devront trancher sera de savoir à quel point une voix ou une image générée par une IA doit ressembler à la voix originale pour constituer une contrefaçon. Il s'agira également de déterminer si la voix de Greene est suffisamment connue pour que le grand public la reconnaisse en écoutant NotebookLM et si cette ressemblance lui porte préjudice.

Ces questions peuvent s'avérer épineuses lorsqu'il s'agit de voix générées par une IA. Il existe des logiciels capables de comparer les voix, mais ils sont généralement utilisés pour trouver ou exclure une correspondance exacte entre des voix humaines réelles, plutôt qu'entre des voix synthétiques.

Pour Greene, la ressemblance de la voix de l'IA avec la sienne est troublante, et le préjudice est plus profond et plus personnel qu'une simple occasion manquée de tirer profit de son atout le plus emblématique.

« Ma voix est, en quelque sorte, la partie la plus importante de mon identité », a déclaré Greene.

« Ces allégations sont sans fondement », a affirmé José Castañeda, porte-parole de Google. « La voix masculine utilisée dans les aperçus audio de NotebookLM est celle d'un acteur professionnel rémunéré par Google. »

L'avocat de Greene affirme que les enregistrements établissent clairement la ressemblance. « Nous avons confiance en la justice et encourageons chacun à écouter l'exemple audio », a déclaré Joshua Michelangelo Stein, associé du cabinet Boies Schiller Flexner, qui représente également des auteurs dans un procès très médiatisé concernant le droit d'auteur de l'IA contre Meta.

La fonctionnalité « Aperçu audio » de NotebookLM a fait sensation lors de sa sortie en 2024 auprès des passionnés d'IA, qui ont partagé des exemples d'utilisation pour résumer de longs documents, remplaçant ainsi des dizaines de pages de texte par un podcast dynamique mettant en avant les points essentiels. Bien que Google n'ait pas divulgué le nombre d'utilisateurs de cet outil, il s'est révélé être un succès surprise pour le géant de la recherche dans sa course contre des concurrents tels qu'OpenAI, créateur de ChatGPT, pour captiver l'imagination des consommateurs. En décembre 2024, Spotify, leader du streaming musical, a utilisé cet outil dans le cadre de sa fonctionnalité phare « Spotify Wrapped », offrant à chaque utilisateur un podcast personnalisé sur ses habitudes d'écoute.

Sur Internet, les internautes se sont livrés à de nombreuses spéculations quant aux personnes auxquelles ressemblent le plus les voix des podcasteurs IA. Plusieurs ont cité Greene, mais d'autres ont mentionné l'ancien podcasteur spécialisé dans la technologie, Leo Laporte, ou encore le podcast humoristique « Armchair Expert », co-animé par Dax Shepard et Monica Padman.

Enfant, à Pittsburgh, Greene idolâtrait Lanny Frattare, la voix emblématique de l'équipe de baseball professionnelle de la ville. « Je m'asseyais aux matchs des Pirates de Pittsburgh et je faisais comme si j'étais le commentateur », se souvient-il.

Au lycée, avec deux amis, il annonçait les annonces du matin, qu'ils avaient transformées en une sorte d'émission de radio. Il avait écrit une lettre de motivation pour ses études supérieures, dans laquelle il exprimait son rêve de devenir animateur de radio publique – une lettre que sa mère a retrouvée et lui a envoyée lorsqu'il a décroché son premier emploi à NPR en 2005.

Là-bas, Greene a été pris sous l'aile de Don Gonyea, correspondant politique national de longue date de NPR. Il a appris les ficelles du métier, comme celle de faire comme s'il s'adressait à un ami présent dans la pièce plutôt qu'à un large public, afin que sa voix paraisse naturelle et non pas « radiophonique ».

Les retours des auditeurs et des personnes interviewées ont confirmé à Greene que sa voix de baryton chaleureuse avait le pouvoir d'apaiser et d'inspirer confiance et empathie. Dans l'émission « Morning Edition », c'est sa voix qui a réveillé quelque 13 millions d'auditeurs entre 2012 et 2020 selon NPR, faisant de cette émission le programme d'information radio le plus populaire des États-Unis. Dans « Left, Right & Center », il incarne la position modérée, cherchant un terrain d'entente entre les commentateurs de gauche et de droite.

« Je crois sincèrement que les conversations ont le pouvoir de changer nos vies et de changer le monde », a déclaré Greene. « Si nous vivons actuellement dans un climat aussi polarisé, c'est notamment parce que les gens oublient l'importance du dialogue. »

C'est pourquoi le fait que Google se soit approprié sa voix et l'ait transformée en robot est si insupportable pour Greene.

« J'ai lu un article dans le Guardian expliquant comment cet outil de podcast peut servir à diffuser des théories du complot et à donner du crédit aux aspects les plus odieux de notre société », a-t-il déclaré. « Qu'un outil qui ressemble au mien soit utilisé à cette fin est vraiment inquiétant. »

La plainte de Greene, déposée le mois dernier devant la Cour supérieure du comté de Santa Clara, allègue, sans toutefois le prouver, que Google a entraîné NotebookLM avec sa voix. La plainte cite une société d'analyse forensique en intelligence artificielle, dont le nom n'est pas mentionné, qui a utilisé son logiciel pour comparer la voix de synthèse à celle de Greene. L'outil a estimé la probabilité que la voix de Greene ait été utilisée pour entraîner le modèle entre 53 % et 60 %, ce qu'il considère comme un niveau de confiance « relativement élevé » pour une comparaison entre la voix d'une personne réelle et une voix de synthèse. (Un score de confiance supérieur à zéro signifie que les voix sont similaires, tandis qu'un score inférieur à zéro indique qu'elles sont probablement différentes.)

Grimmelmann a déclaré que Greene n'a pas forcément besoin de prouver de manière définitive que Google a entraîné NotebookLM sur sa voix pour avoir un dossier solide, ni même que la voix est identique à 100 % à la sienne. Il a cité une affaire de 1988 dans laquelle la chanteuse et actrice Bette Midler a obtenu gain de cause contre Ford Motor Company pour une publicité qui utilisait un comédien de doublage imitant sa voix de mezzo-soprano si particulière. Mais Greene devrait alors démontrer qu'un nombre suffisant d'auditeurs pensent qu'il s'agit de sa voix pour que cela nuise à sa réputation ou à ses propres possibilités d'en tirer profit.

Mike Pesca, animateur du podcast « The Gist » et ancien collègue de Greene à NPR, a déclaré avoir l'oreille musicale et se passionner pour l'identification des acteurs et des célébrités qui prêtent leur voix aux publicités télévisées.

La première fois qu'il a entendu NotebookLM, Pesca a déclaré : « Je me suis immédiatement dit : “C'est David Greene !” »

Pesca a expliqué avoir d'abord supposé que Google avait intentionnellement entraîné l'outil avec la voix de Greene et que ce dernier avait été rémunéré.

« Si j'étais David Greene, je serais furieux, non seulement parce qu'ils ont volé ma voix, mais aussi parce qu'ils l'ont utilisée pour créer l'équivalent, dans le monde du podcast, de ce qu'on appelle du contenu de piètre qualité, commercial et spammé », a déclaré Pesca. « Il y a bien quelques échanges, mais ils sont superficiels et sans intérêt, et ils répètent sans cesse : “Oui, c'est tellement intéressant !” C'est vraiment grave, car qu'est-ce qui nous reste, en tant qu'animateurs, si ce n'est notre sens de l'analyse et notre capacité à faire découvrir à notre public ce qui est intéressant ? »

Greene n'est pas le premier professionnel de l'audio à se plaindre du vol de sa voix. De nombreux comédiens de doublage ont été consternés d'entendre des voix similaires à la leur dans divers outils d'IA. Cependant, ils rencontrent de grandes difficultés devant les tribunaux, notamment parce qu'ils ne sont généralement pas des personnalités connues, même si leurs voix sont familières, et parce que de nombreux contrats de comédiens de doublage autorisent l'utilisation de leurs voix pour une grande variété d'usages.

Des projets de loi déposés dans plusieurs États et au Congrès américain visent à réglementer l'utilisation des voix dans les outils d'IA. Greene, quant à elle, s'appuie sur des lois étatiques établies de longue date qui confèrent aux personnalités publiques certains droits de contrôle sur la monétisation de leur image.

Adam Eisgrau, directeur de la politique de droit d'auteur en matière d'IA au sein de la Chambre de progrès, un groupe professionnel technologique de centre-gauche, estime que les lois actuelles suffisent à traiter des cas comme celui de M. Greene sans qu'il soit nécessaire d'adopter de nouvelles lois sur l'IA au niveau national.

« Si un jury californien conclut que la voix de NotebookLM est entièrement celle de M. Greene, il pourrait obtenir gain de cause », a déclaré M. Eisgrau par courriel. « En revanche, s'il conclut que la voix présente des caractéristiques qu'il possède également, mais qu'elle est fondamentalement celle d'un présentateur télévisé archétypal, apprise à partir d'un vaste ensemble de données, il pourrait perdre. »

M. Greene affirme ne pas faire pression pour de nouvelles lois qui risqueraient de freiner l'innovation. Il estime simplement que Google aurait dû lui demander son autorisation avant de commercialiser un produit basé sur une voix qu'il considère comme étant essentiellement la sienne.

« Je ne suis pas un militant anti-IA extrémiste », a-t-il déclaré. « C'est juste une expérience très étrange. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd