Incidents associés
Les avocats de Scarlett Johansson exigent qu'OpenAI révèle comment il a développé une voix d'assistant personnel IA qui, selon l'actrice, ressemble étrangement à la sienne.
L'équipe juridique de Johansson a envoyé à OpenAI deux lettres demandant à l'entreprise de détailler le processus par lequel elle a développé une voix que l'entreprise technologique a surnommée "Sky", a déclaré le publiciste de Johansson à NPR dans une révélation qui n'a pas été rapportée auparavant.
Après qu'OpenAI ait organisé une démonstration en direct de la voix la semaine dernière, de nombreux observateurs l'ont comparée à la voix de Johansson dans le film de science-fiction romantique de Spike Jonze de 2013, "Her", qui se concentre sur un homme qui tombe amoureux de la voix féminine de son ordinateur. système opérateur.
Sam Altman, PDG d'OpenAI, qui[ a déclaré](https://www.google.com/search?q=sam+altman+her+and+salesforce&rlz=1C1GCEJ_enUS1042US1042&oq=sam+altman+her+and+salesforce&gs_lcrp=EgZjaHJvbWUyBggAEEUYOTIGCAEQIxgn0gEINDYxOGowajeoAgCwAg A&sourceid=chrome&ie =UTF-8#fpstate=ive&vld=cid:cfde1852,vid:uRVOeqSSZtQ,st:1454) le film de Spike Jonze de 2013 est son film préféré, invitant à des comparaisons en [en publiant le mot "Elle"](https://x.com /sama/status/1790075827666796666) sur X après que la société a annoncé la nouvelle version de ChatGPT. Mais plus tard, les dirigeants d'OpenAI ont nié tout lien entre Johansson et le nouvel assistant vocal.
Puis l’entreprise a soudainement baissé la voix.
Dans un post sur X juste avant minuit, heure du Pacifique, dimanche, OpenAI a déclaré que la voix serait interrompue car elle répondait à « des questions sur la façon dont nous avons choisi les voix dans ChatGPT ». " Une porte-parole de l'entreprise n'a pas voulu fournir plus de détails.
Il s'avère qu'Altman courtisait la star hollywoodienne depuis des mois et elle se sent désormais trahie.
Johansson a déclaré qu'il y a neuf mois, Altman l'avait approchée en lui proposant d'autoriser l'obtention d'une licence pour sa voix pour le nouvel assistant vocal ChatGPT. Il a pensé que ce serait « réconfortant pour les gens » qui ne sont pas à l'aise avec la technologie de l'IA.
"Après mûre réflexion et pour des raisons personnelles, j'ai décliné l'offre", a écrit Johansson.
Deux jours seulement avant le dévoilement du nouveau ChatGPT, Altman a de nouveau contacté l'équipe de Johansson, exhortant l'actrice à reconsidérer sa décision, a-t-elle déclaré.
Mais avant qu'elle et Altman puissent se connecter, la société a annoncé publiquement son nouveau produit éclatant, avec une voix qui, selon elle, semble avoir copié son image.
Pour Johansson, c'était un affront personnel.
"J'ai été choquée, en colère et incrédule que M. Altman poursuive une voix qui ressemblait si étrangement à la mienne que mes amis les plus proches et les médias ne pouvaient pas faire la différence", a-t-elle déclaré.
Elle a également trouvé cela alarmant, a-t-elle déclaré, à un moment où Internet regorge de désinformation.
"À une époque où nous sommes tous aux prises avec les deepfakes et la protection de notre propre image, de notre propre travail, de notre propre identité, je pense que ce sont des questions qui méritent une clarté absolue", a déclaré Johansson.
Altman d'OpenAI a nié l'existence d'un lien entre Johansson et sa voix Sky.
"Nous avons choisi le doubleur derrière la voix de Sky avant de contacter Mme Johansson. Par respect pour Mme Johansson, nous avons suspendu l'utilisation de la voix de Sky dans nos produits. Nous sommes désolés auprès de Mme Johansson de ne pas avoir mieux communiqué. " Altman a écrit dans une déclaration à NPR.
Johansson a profité de l'incident pour attirer l'attention sur le manque de garanties juridiques concernant l'utilisation du travail créatif pour alimenter les principaux outils d'IA.
"J'attends avec impatience une résolution sous forme de transparence et l'adoption d'une législation appropriée pour contribuer à garantir la protection des droits individuels", a-t-elle déclaré.
OpenAI affirme que la voix d'une autre actrice a été utilisée pour développer "Sky"
Dans un article de blog publié dimanche soir, OpenAI a déclaré que la voix de l'IA en question, connue sous le nom de "Sky", avait été développée à partir de la voix d'une autre actrice dont la société a déclaré qu'elle ne révélait pas l'identité pour protéger sa vie privée.
"Nous pensons que les voix de l'IA ne doivent pas délibérément imiter la voix distinctive d'une célébrité --- la voix de Sky n'est pas une imitation de Scarlett Johansson mais appartient à une actrice professionnelle différente utilisant sa propre voix naturelle", a écrit la société.
Le nouveau modèle, connu sous le nom de GPT-4o, transforme le chatbot en un assistant vocal capable d'interpréter les expressions faciales, de détecter les émotions et même de chanter sur commande.
Le nouvel assistant vocal sera accessible au public dans les semaines à venir. Lors d'une démonstration en direct la semaine dernière, certains employés d'OpenAI ont adopté un ton complice et flirteur, ce qui a amené certains à se demander si cette attitude coquette n'était pas un stratagème intentionnel visant à maintenir l'engagement des gens dans le système d'IA.
Dans une interview avec NPR la semaine dernière, Mira Murati, directrice de la technologie d'OpenAI, a déclaré que la société n'avait calqué aucune voix ChatGPT sur la voix sensuelle d'ordinateur de Johansson dans le film.
"Cela en dit plus sur notre imagination, notre narration en tant que société que sur la technologie elle-même", a déclaré Murati. "La façon dont nous avons développé cette technologie n'est pas basée sur un film ou une histoire de science-fiction. Nous essayons de construire ces machines capables de penser et d'avoir une compréhension solide du monde."
"Je ne sais pas pour la voix. En fait, j'ai dû aller écouter la voix de Scarlett Johansson", a-t-elle déclaré.
Interrogé sur les plaisanteries coquettes de ChatGPT, Murati a déclaré que le modèle répond simplement à ce que les gens lui fournissent.
"Il réagira à la façon dont vous interagissez avec lui", a-t-elle déclaré. "Ce n'est pas prédéfini. C'est basé sur les entrées."
Dans son article de blog du dimanche soir, OpenAI a déclaré que le chatbot avait été développé avec cinq voix produites après une étroite collaboration avec des acteurs de la voix et de l'écran.
"Pour l'avenir, vous pouvez vous attendre à encore plus d'options car nous prévoyons d'introduire des voix supplémentaires dans ChatGPT pour mieux répondre aux divers intérêts et préférences des utilisateurs", a écrit la société dans le message.
Un jour après l'annonce d'OpenAI, Google a tenu sa conférence annuelle des développeurs au cours de laquelle a dévoilé son propre assistant personnel d'IA, également exprimé par une femme, connu sous le nom de Project Astra. Bien que similaire, la version de Google semblait beaucoup moins plaisante et ludique et plus factuelle.
Ensemble, disent les experts, les produits donnent un aperçu de la prochaine génération de technologies d’IA de pointe – et soulèvent également des questions sur les risques qui en découlent à mesure que de plus en plus de personnes adoptent ces outils.
Visar Berisha, professeur à l'Arizona State University qui étudie la technologie vocale de l'IA, a déclaré qu'il est difficile de prédire comment les assistants vocaux avancés d'IA qui parlent avec des personnalités humaines changeront la société.
"La communication vocale est vraiment intime, vraiment percutante. Elle permet à l'IA d'exprimer des subtilités, des choses perçues comme sincères, urgentes, de la joie, de l'inquiétude", a-t-il déclaré. "Et tout cela sert à favoriser une connexion plus profonde entre l'utilisateur et la machine. Vous pouvez voir comment ces interactions peuvent potentiellement devenir addictives."
Il est possible, a déclaré Berisha, que les gens commencent à établir des liens émotionnels avec les systèmes d'IA, un peu comme l'intrigue de "Her" - un film qui ne se termine pas de manière heureuse pour le protagoniste.
"Quand j'ai vu ce film pour la première fois, cela ressemblait à de la science-fiction", a déclaré Berisha. "Ça ne semble plus être le cas maintenant."