Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 510

Incidents associés

Incident 3435 Rapports
Amazon Alexa Responding to Environmental Inputs

Loading...
Alexa d'Amazon a entendu son nom et a essayé de commander une tonne de maisons de poupées
qz.com · 2017

Alexa s'avère être une très mauvaise auditrice.

Diffuser des chansons, commander des pizzas et réserver des taxis sont une évidence pour Alexa, l'assistant à commande vocale installé sur les appareils Amazon Echo. Mais Alexa semble également aimer s'engager dans une petite thérapie de vente au détail involontaire.

Récemment, une fillette de six ans au Texas a pu commander une maison de poupée de 170 $ et quatre livres de biscuits au sucre via Echo Dot d'Amazon. Mais au moins dans ce cas, le jardin d'enfants parlait directement à Alexa.

Le matin du 5 janvier, la chaîne de télévision californienne CW-6 faisait un reportage sur les achats de la petite fille lorsqu'elle a accidentellement poussé un grand nombre d'autres Alexas à tenter également des virées shopping. Au cours du segment d'actualités à l'antenne, le présentateur de télévision Jim Patton a déclaré: "J'adore la petite fille qui dit:" Alexa m'a commandé une maison de poupée "." En entendant la déclaration, Amazon Echoes dans les maisons des téléspectateurs a pris la remarque comme une commande de nombreux téléspectateurs se sont plaints que leurs assistants personnels tentaient également de passer des commandes de maisons de poupées.

Amazon dit qu'il est "presque impossible de faire du shopping par accident" comme dans l'incident du Texas. "Vous devez demander à Alexa de commander un produit, puis confirmer l'achat avec une réponse" oui "à l'achat via la voix", a déclaré un porte-parole d'Amazon dans un e-mail. La société affirme que même si un journal télévisé a peut-être réveillé un groupe d'Alexas, les commandes n'auraient pas abouti sans une affirmation secondaire de l'utilisateur. On ne sait pas si l'enfant de six ans à San Diego a confirmé l'achat d'une maison de poupée en disant "oui".

La commande de produits par commande vocale est un paramètre par défaut sur les appareils Alexa, ce qui signifie que toute personne écoutant à San Diego ce matin-là avec le volume de son téléviseur allumé et ses haut-parleurs sans fil allumés aurait pu devenir le nouveau propriétaire d'un KidKraft Sparkle Mansion. Mais seulement s'ils ont aussi accidentellement confirmé l'ordre accidentel qu'Alexa a entendu à la télévision.

Cet incident de maison de poupée est une preuve supplémentaire qu'Alexa est toujours à l'écoute. L'appareil commence à enregistrer chaque fois qu'il entend le mot de réveil "Alexa", enregistrant le son jusqu'à 60 secondes à chaque fois. (Pour cette raison, les autorités ont récemment tenté d'accéder aux données d'Alexa dans le cadre d'une enquête sur un meurtre.) Bien que cela soit utile, la fonctionnalité limite sans doute l'envahissement de la vie privée et a attisé les problèmes de sécurité généraux qui entourent l'essor des appareils de l'Internet des objets (IoT). .

Bien que les journaux cryptés des enregistrements soient conservés sur les serveurs de l'entreprise, que le microphone de l'appareil puisse être désactivé et que les enregistrements puissent être supprimés manuellement du compte, de nombreux utilisateurs s'inquiètent toujours de la quantité d'écoute réelle d'Alexa. « Plus tard, la technologie sera plus sophistiquée là où elle pourra identifier certaines personnes et enregistrer [les] personnes [qui] peuvent y accéder », a déclaré Stephen Cobb, chercheur principal en sécurité pour ESET North America, à CW6.

Alors que la commande surprise de l'enfant de six ans a trouvé une maison avec des patients pédiatriques dans un hôpital de Dallas, les utilisateurs n'ont pas à trouver de solution pour les commandes accidentelles, car Amazon propose des retours gratuits. Mais pour éviter de telles erreurs, les utilisateurs peuvent modifier leurs haut-parleurs, installer un code obligatoire à quatre chiffres pour confirmer les commandes ou désactiver complètement la fonction de commande vocale via l'application Alexa.

Correction : Cette histoire a été mise à jour pour refléter la position d'Amazon sur l'histoire de San Diego, et que la société confirme qu'Alexas s'est peut-être réveillé à San Diego mais n'a pas réussi à commander un tas de maisons de poupées.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd