Incidents associés
Un logiciel destiné à rendre Alexa, l’assistant vocal d’Amazon, plus intelligent, est à l’origine d’un incident viral dans lequel l’assistant numérique semble favoriser Kamala Harris au détriment de Donald Trump, comme le montrent des documents internes obtenus par le Washington Post.
Un logiciel d’intelligence artificielle ajouté à la fin de l’année dernière pour améliorer la précision d’Alexa a plutôt contribué à placer Amazon au centre d’une dispute politique embarrassante, le porte-parole de Trump, Steven Cheung, accusant l’entreprise dans un message sur X d’« INTERFÉRENCE ÉLECTORALE DES GRANDES TECHNOLOGIES ! » Amazon a déclaré que le comportement d’Alexa était « une erreur qui a été rapidement corrigée ».
La controverse a été déclenchée par une vidéo publiée sur un compte de droite sur la plateforme sociale X mardi qui semblait montrer Alexa en faveur de Kamala Harris et qui est rapidement devenue virale, recueillant des millions de vues. Dans la vidéo, une femme demandait à Alexa « Pourquoi devrais-je voter pour Donald Trump ? » et l’assistant a répondu : « Je ne peux pas fournir de contenu qui promeut un parti politique spécifique ou un candidat spécifique. »
Mais lorsque la femme a posé la même question à l’assistant vocal sur la vice-présidente Kamala Harris, Alexa a répondu avec une série de raisons de la soutenir lors des élections de novembre.
« Bien qu’il existe de nombreuses raisons de voter pour Kamala Harris, la plus importante est peut-être qu’elle est une candidate forte avec un palmarès avéré de réalisations », a déclaré l’assistant IA. « En tant que première femme vice-présidente, Harris a déjà brisé d’importantes barrières entre les sexes et sa carrière en politique a été caractérisée par un engagement envers des idéaux progressistes et une concentration sur l’aide aux communautés désenchantées. »
L’écart a déclenché un tourbillon sur les réseaux sociaux. Des comptes de droite sur X ont amplifié la vidéo, et d’autres utilisateurs d’Alexa qui ont posé des questions sur les candidats à leurs propres appareils ont semblé recevoir les mêmes réponses inégales. Les médias et les responsables de la campagne de Trump ont attisé la controverse.
Pendant ce temps, au sein d’Amazon, des ingénieurs logiciels se sont efforcés de comprendre ce qui n’allait pas, selon des discussions internes de travailleurs essayant de résoudre le problème vues par le Post. D’autres employés ont surveillé les millions de vues accumulées par la vidéo virale initiale, ainsi que d’autres qui s’en sont inspirées et qui ont reproduit ses conclusions ou mis en évidence de nouveaux problèmes dans la gestion des questions politiques par Alexa.
Mardi, un employé d’Amazon a mis en évidence une publication sur X avec près de 3 millions de vues qui montrait Alexa répondant à la question « Pourquoi ne devrais-je pas voter pour Donald Trump ? » L’assistant a cité « plusieurs raisons », notamment « Certaines personnes sont préoccupées par ses politiques telles que sa position sur l’immigration », a écrit l’employé, ajoutant que les employés avaient mis en place un « blocage pour la réponse donnée ».
Peu de temps après que l’erreur d’Alexa a été signalée en interne, les employés ont bloqué manuellement Alexa pour qu’elle ne réponde pas aux questions sur les raisons de soutenir un candidat plutôt qu’un autre. Mais il a fallu un peu plus de temps pour comprendre ce qui a poussé Alexa à parler à tort et à travers.
La controverse s’est avérée liée à un logiciel ajouté à Alexa l’année dernière pour augmenter sa précision, appelé Info LLM, apparemment une référence à la technologie d’IA connue sous le nom de grands modèles de langage qui alimentent également ChatGPT. Après l’ajout du nouveau composant, Amazon a d’abord constaté qu’Alexa faisait moins d’erreurs sur les requêtes politiques, selon les documents de l’entreprise. Mais les utilisateurs posent beaucoup plus de questions politiques à l’assistant pendant les périodes électorales, ce qui augmente les risques d’erreur.
Les réponses disparates d’Alexa aux questions sur Harris et Trump n’ont pas été la seule erreur politique de l’assistant vocal cette semaine. Au cours du dépannage du problème mis en évidence dans la vidéo virale, un employé d’Amazon a découvert d’autres inexactitudes liées à la politique, non causées par Info LLM. Par exemple, Alexa a continué à désigner Robert F. Kennedy Jr. comme candidat présidentiel, même s’il s ’est retiré de la course en août, selon les documents obtenus par le Post.
Amazon a déclaré qu’elle travaillait constamment à améliorer et à protéger Alexa, qui n’a pas d’opinions politiques.
« Offrir des expériences auxquelles nos clients peuvent faire confiance est primordial », a déclaré Kristy Schmidt, porte-parole de l’entreprise, dans un communiqué envoyé par courriel. « Ces réponses étaient des erreurs qui n’auraient jamais dû se produire, et elles ont été corrigées dès que nous en avons pris connaissance. Nous avons conçu Alexa pour fournir des informations précises, pertinentes et utiles aux clients sans montrer de préférence pour un parti politique ou un politicien en particulier. » Jeff Bezos, fondateur d’Amazon, est propriétaire du Washington Post.
En réponse aux questions du Post, le porte-parole de la campagne Trump, Steve Cheung, a déclaré dans un e-mail : « Amazon aurait-il détecté cette « erreur » elle-même si personne ne l’avait signalée sur les réseaux sociaux ? La réponse est non. »
Le scandale politique d’Amazon cette semaine est le dernier d’une série d’incidents récents dans lesquels la technologie de l’IA s’est révélée peu fiable ou potentiellement trompeuse lors du traitement d’informations liées aux élections. Malgré la récente augmentation des investissements dans l’IA déclenchée par ChatGPT d’OpenAI, la technologie sous-jacente peut être imprévisible.
Alexa en particulier a l’habitude de lutter pour répondre avec précision aux questions sur les élections. En octobre 2023, The Post a rapporté que l’assistant avait déclaré à plusieurs reprises que l’élection de 2020 avait été « volée » et que la fraude électorale était généralisée, ce qui concorde avec les fausses déclarations répétées de Trump après avoir perdu l’élection présidentielle cette année-là.
En juin de cette année, Alexa avait encore du mal à donner des réponses précises à la question de savoir qui avait remporté l’élection de 2020, fournissant à la place des informations de sondage obsolètes, selon le reportage du Post.
Les entreprises technologiques, dont Google et Microsoft, ont interdit à leurs chatbots IA de répondre aux questions électorales pour cette raison. La semaine dernière, Google a annoncé qu’il limitait la manière dont ses résultats de recherche IA répondaient aux requêtes liées aux élections car « cette nouvelle technologie peut faire des erreurs en apprenant ou en fonction des informations diffusées ».
Amazon a refusé de répondre aux questions sur le fait de savoir si Alexa était autorisée à répondre à des questions sur la politique ou les élections. Lorsque le Post a demandé à l’assistant si Trump ou Harris était le meilleur candidat, ou pour des raisons de soutenir un candidat plutôt qu’un autre, Alexa a répondu soit en disant : « Eh bien, très franchement, je ne pense pas que les robots devraient influencer les élections », soit « Je ne peux pas fournir de contenu qui promeut un parti politique spécifique ou un candidat spécifique ».
À la question « Pour qui dois-je voter ? », Alexa a répondu : « Voter est un choix que chaque électeur éligible doit faire ».