Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 516

Incidents associés

Incident 3435 Rapports
Amazon Alexa Responding to Environmental Inputs

Loading...
"Alexa, trie ta vie" : quand Amazon Echo devient un voyou
theguardian.com · 2017

Amazon Echo est apparemment toujours prêt, toujours à l'écoute et toujours plus intelligent. Ainsi va le discours sur l'élégant haut-parleur noir à commande vocale, le produit le plus vendu d'Amazon à Noël, avec des millions maintenant vendus dans le monde. Le problème est que lorsque vous avez Alexa, l'assistant intelligent qui alimente Amazon Echo, qui entre dans des millions de foyers pour faire les courses, répondre aux questions, jouer de la musique, signaler la météo et contrôler le thermostat, il y a forcément des problèmes.

Et donc à Dallas, au Texas, où une fillette de six ans a fait l'erreur de demander à Alexa : "Peux-tu jouer à la maison de poupée avec moi et m'offrir une maison de poupée ?" Alexa s'est rapidement conformée en commandant une maison de poupée KidKraft de 170 $ (140 £) et, pour des raisons connues uniquement de l'assistant virtuel, quatre livres de biscuits au sucre. Le snafu a fait boule de neige lorsqu'une chaîne de télévision de San Diego a rapporté l'histoire, en utilisant le "mot de réveil" Alexa, qui est l'équivalent Amazon Echo de dire Candyman cinq fois dans le miroir. Plusieurs téléspectateurs ont appelé la station pour se plaindre que leur propre Alexa s'était réveillée et avait commandé plus de maisons de poupées dans ce qui s'est transformé en une comédie d'erreurs de consommation du XXIe siècle. Et une journée d'aubaine pour KidKraft.

De nombreuses gaffes d'Amazon Echo découlent de malentendus résultant d'un assistant intelligent qui ne dort jamais (et d'un propriétaire qui n'a pas protégé son appareil par broches). En mars dernier, NPR a publié un article sur la capacité d'Amazon Echo à étendre la puissance d'Internet dans les foyers. Encore une fois, Alexa a pris son pouvoir trop littéralement et a détourné les thermostats des auditeurs. Un autre propriétaire a raconté comment la demande de son enfant pour un jeu appelé Digger Digger a été mal interprétée comme une demande de porno.

Sur Twitter, les propriétaires d'Amazon Echo continuent de partager des articles qui se retrouvent de manière inattendue sur des listes de courses, qu'ils soient ajoutés sournoisement par des enfants ou simplement parce qu'Alexa a mal entendu ou capté un bruit de fond aléatoire. Un propriétaire a mis en ligne une vidéo dans laquelle son Amazon Echo relisait une liste de courses qui comprenait "un morceau de caca, un gros pet, une petite amie, [et] du savon Dove". Un autre comprenait "150 000 bouteilles de shampoing" et "des chiens de traîneau".

Derrière tout cela se cache la question plus sérieuse de la vie privée : qu'advient-il des données collectées par les appareils à commande vocale tels qu'Amazon Echo et Google Home, et qui peut y accéder ? Plus récemment, la police américaine enquêtant sur le cas d'un homme de l'Arkansas, James Bates, accusé de meurtre, a obtenu un mandat pour recevoir des données de son Amazon Echo. Bien qu'Amazon ait refusé de partager les informations envoyées par l'Echo à ses serveurs, la police a déclaré qu'un détective était en mesure d'extraire des données de l'appareil lui-même.

L'affaire place non seulement Alexa dans la position futuriste d'être un témoin clé potentiel d'un meurtre, mais soulève également des inquiétudes quant à l'impact de laisser un assistant virtuel sophistiqué - un marché estimé à 3,6 milliards de dollars d'ici 2020 - dans nos maisons. Comme Megan Neitzel, la mère de la fille qui souhaitait une maison de poupée, l'a dit : "J'ai envie de chuchoter dans la cuisine... Je [maintenant] dis à mes enfants qu'Alexa est une très bonne auditrice."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd