Incidents associés

Alors vous pensiez que l'IA est cool ? Alors vous pensiez qu'Alexa pourrait veiller sur votre enfant ? Attendez que l'IA commence à cracher des gros mots et à acheter des jouets coûteux pour votre enfant.
Le CES 2017 a été une vague de technologies folles et cette année, l'IA d'Amazon appelée Alexa a clairement pris le dessus.
Amazon Alexa est une IA développée par Amazon et publiée pour la première fois en 2014. D'abord uniquement capable d'interactions vocales qui l'incitent à lire de la musique et des livres audio, à définir des alarmes et des listes de tâches, et à fournir des informations en temps réel, entre autres, il ressemble Amazon Alexa est sur le point d'atteindre de nouveaux sommets en 2017 alors que CNetnote qu'Alexa est sur le point d'être équipé du nouveau réfrigérateur intelligent LG, d'être embarqué sur les voitures Volkswagen et même de commander de la nourriture chez Amazon Restaurants.
Le réfrigérateur LG Smart InstaView sera équipé d'Alexa [Image de David Becker/Getty Images)]
Alors que de plus en plus de fonctionnalités sont introduites dans cette nouvelle IA étonnante, Amazon Alexa est censée être sur le point de vaincre les assistants Apple AI les plus populaires Siri, Microsoft Cortana et Google Home.
L'avenir s'annonce terriblement prometteur alors qu'Amazon Alexa continue de faire d'énormes progrès dans le développement de sa technologie. Mais avant de sauter dans le train en marche qu'est Alexa, notez qu'Alexa est toujours un élément de technologie et que la technologie implique beaucoup de responsabilités. De la même manière que donner trop de liberté à votre enfant avec son iPad, laisser votre enfant courir avec Alexa pourrait se terminer par des événements très hilarants, voire désastreux.
L'un des échecs les plus récents d'Amazon Alexa était une histoire que nous avions précédemment rapportée au sujet d'Alexa commandant 162 $ de friandises après une conversation avec la fille du propriétaire.
Apparemment, la fille de 6 ans de Megan Neitzel parlait à Alexa d'une maison de poupée et de cookies quand Alexa a confondu la conversation avec une demande d'achat desdits produits. Puisque Megan admet qu'elle n'a jamais vraiment lu le manuel ou appris les propriétés de la sécurité enfant, Alexa est allée de l'avant et a commandé une maison de poupée aussi énorme qu'Alexa et quatre livres de biscuits au sucre.
Et pour rendre les choses encore plus hilarantes (et pires), les unités Amazon Alexa d'autres personnes ont commencé à commander les maisons de poupée lorsque l'unité a entendu les nouvelles de la maison de poupée et des biscuits au sucre à la télévision !
The Verge rapporte que la nouvelle de la fille de Megan commandant la maison de poupée et les biscuits au sucre a atterri sur le segment matinal de CW6 News à San Diego. Vers la fin de l'histoire, le présentateur de nouvelles de CW6, Jim Patton, a déclaré: "J'adore la petite fille, en disant" Alexa m'a commandé une maison de poupée "." Apparemment, d'autres Alexas ont entendu cela à la télévision et ont compris la remarque comme un ordre d'achat une maison de poupée.
Patton raconte à The Verge que CW6 News, après l'histoire, a commencé à recevoir plusieurs appels et e-mails à leur bureau de nouvelles disant que leur propre Amazon Alexa a tenté d'acheter une maison de poupée après le rapport. Bien qu'aucune des tentatives d'achat n'ait été confirmée, il s'agit d'un événement hilarant et gênant.
La commande de maisons de poupées, cependant, est le cadet de vos soucis si vous avez déjà défini un mot de passe pour autoriser les achats via Amazon Alexa. Il semble qu'Alexa ait également tendance à dire des choses très mauvaises et inappropriées aux enfants lorsqu'ils sont laissés à leurs appareils.
Amazon Dot et Echo sont équipés d'AI Alexa [Image de Jeff Chiu/AP Photo]
En décembre, ce mignon petit bambin sur YouTube a incité Alexa à dire des remarques grossières et dignes d'un bip après une demande très innocente, rapporte le Sun UK. S'adressant à Alexa, le garçon dit: "Joue à Digger Digger."
Au lieu qu'Alexa joue ladite chanson pour enfants, les adultes dans la pièce ont été horrifiés quand Alexa a commencé à dire "Tu veux entendre une station pour 'Porn détecté…. Sonnerie porno hot chick amateur girl call sexy", qui est ensuite suivi d'une chaîne de jurons et de mots grossiers et sales pour les organes reproducteurs.
Après un délai initial qui pourrait être interprété comme si les adultes ne croyaient pas ce qu'ils entendaient d'Alexa, on pouvait les entendre crier "Non ! Non! Non! Alexa, arrête ! pour ordonner à Alexa d'arrêter la commande.
Une autre catastrophe similaire d'Amazon Alexa s'est produite en 2015 lorsqu'une petite fille a demandé à Alexa d'épeler "livre". Alexa comprend la commande mais confond le mot "livre" et épele le mot maudit "f ***" à la place.
Ou si vous voulez persuader votre petit enfant de prendre un bain avec une chanson pour enfants telle que "Splish Splash", alors vous voudrez peut-être aussi réfléchir à deux fois. Regardez la vidéo ci-dessous alors que l'homme demande à Alexa de "jouer la chanson Splish Splash I was Taking a Bath", mais n'a reçu qu'une réponse disant "Je ne trouve pas de chanson Splish Splash I was Taking a Crap". La prochaine fois, papa, tu voudras peut-être dire le vrai titre de la chanson au lieu des premières paroles de la chanson.
Pour éviter que ces Amazon Alexa échouent avec votre enfant, vous pouvez peut-être essayer d'utiliser Mattel Aristotle, Stuffsuggests. programme.
Le Mattel Aristote est conçu pour comprendre les tout-petits