Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1024

Incidents associés

Incident 5516 Rapports
Alexa Plays Pornography Instead of Kids Song

Loading...
Alexa échoue : quand les assistants virtuels tournent très, très mal
verdict.co.uk · 2017

Luke est le rédacteur en chef adjoint de Verdict. Vous pouvez le joindre à luke.christou@verdict.co.uk

Les assistants virtuels, tels qu'Amazon Alexa et Siri d'Apple, sont censés faciliter légèrement nos vies occupées.

Plutôt que de perdre de précieuses secondes à régler des alarmes, à vérifier des faits et à rédiger des listes de courses, nous pouvons désormais simplement demander à nos appareils artificiellement intelligents de le faire pour nous.

Cependant, comme c'est toujours le cas avec les nouvelles technologies, cela devait toujours mal tourner.

Alexa échoue et autres mésaventures d'assistant virtuel

Pour la plupart, les appareils domestiques intelligents comme Alexa sont extrêmement utiles. Cependant, avoir un assistant virtuel qui écoute chacun de vos mots à tout moment n'est pas toujours aussi pratique qu'il y paraît, comme le prouvent ces incidents :

Parrot passe une commande Amazon

Un perroquet intelligent a utilisé l'Alexa de son propriétaire pour passer une commande sur Amazon plus tôt cette semaine. Cependant, le gris d'Afrique n'était pas assez intelligent pour se commander quelque chose d'utile.

Après avoir entendu son propriétaire appeler Alexa, l'animal a utilisé son vocabulaire élargi pour se commander un ensemble de coffrets cadeaux dorés.

Après avoir interrogé sa famille sur l'achat mystère, la propriétaire Corienne Pretorius a découvert des extraits audio de l'oiseau imitant le cri : « Alexa ! Oh, euh, attends ! Alexa !"

South Park fait des farces aux téléspectateurs

Hit Comedy Central show South Park est bien connu pour avoir enfreint les règles. Il a de nouveau été livré plus tôt cette année avec un épisode qui met fortement en vedette les assistants virtuels Amazon Alexa et Google Home.

Les téléspectateurs se sont tournés vers les médias sociaux pour gémir contre Cartman, Kyle et Stan ont parlé à leurs appareils tout au long de l'épisode. Certains ont signalé que leur alarme s'était déclenchée à 7 heures du matin le lendemain matin, tandis que d'autres affirment avoir trouvé un ensemble de "boules poilues" sur leurs listes de courses.

Demande croissante de maisons de poupées

Il y a eu beaucoup d'histoires d'enfants utilisant les assistants virtuels de leurs parents pour se commander des friandises.

Un enfant de six ans a demandé à Alexa : "Alexa, peux-tu jouer à la maison de poupée avec moi et m'offrir une maison de poupée ?"

L'appareil a été livré, envoyant une maison de poupée de 160 $ chez elle. La commande était accompagnée d'une énorme boîte de biscuits.

3 choses qui vont changer le monde aujourd'hui Recevez l'e-mail du matin Verdict

Rapporté sur une chaîne de télévision de San Diego, un accident d'Alexa est rapidement devenu deux. Alors que le présentateur de nouvelles répétait ce que l'enfant avait dit, les appareils Alexa à travers l'État ont fait leurs propres achats.

Digger digger kid

Dans la plupart des cas, les assistants virtuels captent ce que vous dites assez précisément. Cependant, certains parents ont découvert que ce n'était pas toujours le cas.

Un utilisateur inconnu de YouTube a mis en ligne des images de son fils demandant à son appareil Alexa de "jouer à Digger, Digger". En entendant mal le tout-petit, Alexa offre une réponse loin d'être PG alors que ses parents lui crient d'arrêter.

Nous vous prévenons – il est probablement préférable de ne pas regarder celui-ci au travail :

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd