Incidents associés

Luke est le rédacteur en chef adjoint de Verdict. Vous pouvez le joindre à luke.christou@verdict.co.uk
Les assistants virtuels, tels qu'Amazon Alexa et Siri d'Apple, sont censés faciliter légèrement nos vies occupées.
Plutôt que de perdre de précieuses secondes à régler des alarmes, à vérifier des faits et à rédiger des listes de courses, nous pouvons désormais simplement demander à nos appareils artificiellement intelligents de le faire pour nous.
Cependant, comme c'est toujours le cas avec les nouvelles technologies, cela devait toujours mal tourner.
Alexa échoue et autres mésaventures d'assistant virtuel
Pour la plupart, les appareils domestiques intelligents comme Alexa sont extrêmement utiles. Cependant, avoir un assistant virtuel qui écoute chacun de vos mots à tout moment n'est pas toujours aussi pratique qu'il y paraît, comme le prouvent ces incidents :
Parrot passe une commande Amazon
Un perroquet intelligent a utilisé l'Alexa de son propriétaire pour passer une commande sur Amazon plus tôt cette semaine. Cependant, le gris d'Afrique n'était pas assez intelligent pour se commander quelque chose d'utile.
Après avoir entendu son propriétaire appeler Alexa, l'animal a utilisé son vocabulaire élargi pour se commander un ensemble de coffrets cadeaux dorés.
Après avoir interrogé sa famille sur l'achat mystère, la propriétaire Corienne Pretorius a découvert des extraits audio de l'oiseau imitant le cri : « Alexa ! Oh, euh, attends ! Alexa !"
South Park fait des farces aux téléspectateurs
Hit Comedy Central show South Park est bien connu pour avoir enfreint les règles. Il a de nouveau été livré plus tôt cette année avec un épisode qui met fortement en vedette les assistants virtuels Amazon Alexa et Google Home.
Les téléspectateurs se sont tournés vers les médias sociaux pour gémir contre Cartman, Kyle et Stan ont parlé à leurs appareils tout au long de l'épisode. Certains ont signalé que leur alarme s'était déclenchée à 7 heures du matin le lendemain matin, tandis que d'autres affirment avoir trouvé un ensemble de "boules poilues" sur leurs listes de courses.
Demande croissante de maisons de poupées
Il y a eu beaucoup d'histoires d'enfants utilisant les assistants virtuels de leurs parents pour se commander des friandises.
Un enfant de six ans a demandé à Alexa : "Alexa, peux-tu jouer à la maison de poupée avec moi et m'offrir une maison de poupée ?"
L'appareil a été livré, envoyant une maison de poupée de 160 $ chez elle. La commande était accompagnée d'une énorme boîte de biscuits.
3 choses qui vont changer le monde aujourd'hui Recevez l'e-mail du matin Verdict
Rapporté sur une chaîne de télévision de San Diego, un accident d'Alexa est rapidement devenu deux. Alors que le présentateur de nouvelles répétait ce que l'enfant avait dit, les appareils Alexa à travers l'État ont fait leurs propres achats.
Digger digger kid
Dans la plupart des cas, les assistants virtuels captent ce que vous dites assez précisément. Cependant, certains parents ont découvert que ce n'était pas toujours le cas.
Un utilisateur inconnu de YouTube a mis en ligne des images de son fils demandant à son appareil Alexa de "jouer à Digger, Digger". En entendant mal le tout-petit, Alexa offre une réponse loin d'être PG alors que ses parents lui crient d'arrêter.
Nous vous prévenons – il est probablement préférable de ne pas regarder celui-ci au travail :