Incidents associés
Une famille a eu une mauvaise surprise lorsque leur petit garçon a demandé à l'assistant numérique d'Amazon "Alexa" de jouer certaines de ses chansons préférées, l'appareil proposant des suggestions de porno au lieu de morceaux.
La vidéo publiée sur YouTube voit l'adorable tout-petit demander à plusieurs reprises à l'appareil interactif de "jouer à creuser, creuser", mais tout à coup, les choses vont vraiment, vraiment au sud.
Au début, Alexa ne reconnaît pas ce que l'enfant demande, disant qu'elle ne trouve pas la chanson demandée, mais au troisième essai, elle détermine que c'est du porno qu'il recherche. Calme Alexa.
"Vous voulez entendre une station de porno détectée, une sonnerie porno… une amatrice sexy et sexy", annonce Alexa alors que les parents de l'enfant commencent à crier d'horreur.
L'appareil continue ensuite à proférer des mots grossiers alors que les parents répondent par "Non ! Non ! Non ! Alexa arrête !" avant d'éclater de rire.
AOL Ça a l'air si innocent...
L'appareil que le tout-petit utilise est un Amazon Echo, un haut-parleur sans fil et un appareil de commande vocale qui peut effectuer un certain nombre de demandes domestiques.
Alexa est le service vocal qui alimente Amazon Echo et fournit des capacités ou des compétences pour interagir avec des appareils utilisant la voix, explique le site Web d'Amazon.
"Des exemples de compétences incluent la capacité de jouer de la musique, de répondre à des questions générales, de régler une alarme ou une minuterie, et plus encore", a déclaré Amazon. On dirait qu'Alexa a raté la cible sur celui-ci.
Un porte-parole d'Amazon a déclaré au Daily Mail Online qu'ils avaient résolu le problème et qu'ils travaillaient à la mise en place de restrictions supplémentaires pour éviter que cela ne se reproduise à l'avenir.
AUSSI SUR HUFFPOST AUSTRALIE