Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1036

Incidents associés

Incident 5516 Rapports
Alexa Plays Pornography Instead of Kids Song

Loading...
Mieux vaut faire attention à ce que vous dites à Amazon Echo Dot : un tout-petit a eu plein de phrases pornographiques vulgaires
lifesitenews.com · 2017

ActualitésPornographie

SEATTLE, Washington, 6 janvier 2017 (LifeSiteNews) - Amazon's Echo Dot est un petit appareil à commande vocale qui répond aux questions, joue de la musique et des sons, et fonctionne essentiellement comme une encyclopédie parlante/jouante, mais les parents trouvent un sérieux problème avec le gadget.

Malgré la publicité familiale de l'entreprise représentant un père avec une petite fille sur ses genoux demandant "A quoi ressemble une baleine bleue?" pour le plus grand plaisir des parents et des enfants, Echo Dot n'a ni conscience ni valeurs morales. Si quelqu'un - aussi jeune soit-il - demande quoi que ce soit, une réponse est fournie sans considération éthique.

Une vidéo YouTube soulignant le défaut de conception est devenue virale. Il montre un tout-petit innocent demandant une chanson pour enfants et la "voix" d'Echo Dot, surnommée "Alexa", interprète mal la demande de l'enfant et crache une série d'obscénités pour l'oreille et l'esprit de l'innocent sans méfiance.

Le petit garçon demande : "Joue à 'Digger Digger' !" Immédiatement, "Alexis" d'Echo Dot dit, d'un ton neutre, "Vous voulez entendre une station pour 'Porn détecté. ... Sonnerie porno hot chick amatrice appelant sexy f *** c *** sh ** sexe c ** k pu ** y gode anal. '"

Avant que l'appareil d'Amazon ne puisse jouer la piste "Porno ringtone hot chick amateur girl calling sexy f *** c *** sh ** sex c ** k pu ** y anal dildo", les parents du jeune garçon interviennent en criant: "Non ! Non ! Alexa, arrête !" alors que leur enfant effrayé lève les yeux, confus et inquiet.

Plusieurs médias ont fait une blague sur l'incident "hilarant", mais la directrice exécutive du Centre national sur l'exploitation sexuelle (NCOSE), Dawn Hawkins, ne rit pas.

La vidéo « expose l'approche imprudente d'Amazon.com en matière de violence sexuelle », selon Hawkins.

Même The Washington Standard est d'accord, au moins sur le fait que Echo Dot d'Amazon est nocif pour les enfants et très hostile à la famille.

"Il n'y a aucune raison pour que cela sorte d'un appareil domestique comme celui-ci, surtout quand on sait que de jeunes enfants peuvent être à la maison", a écrit le journaliste du Washington Standard, Tim Brown. "En ce qui concerne les parents, je suppose qu'ils n'auraient jamais pensé que dans un million d'années quelque chose comme ça serait dit à leur petit garçon depuis un Amazon Echo Dot."

Hawkins dit que ce n'est pas la première fois qu'Amazon fait passer le profit avant la décence. "Ce scandale Alexa révèle ce que le Centre national sur l'exploitation sexuelle a déjà documenté : Amazon est imprudent lorsqu'il s'agit d'exposer le public à de la pornographie et à du matériel d'exploitation sexuelle", a déclaré la leader des droits des femmes. « Amazon.com propose des milliers d'articles liés à la pornographie et a jusqu'à présent refusé de supprimer les poupées sexuelles (dont beaucoup ont des traits enfantins), les livres de photographie de nudité enfantine érotisés et d'autres articles pornographiques, notamment des t-shirts, des vêtements pour bébés et des taies d'oreiller, comme ainsi que des films pornographiques hardcore de son site Web.

Amazon, basé à Seattle, qui est le plus grand détaillant en ligne au monde, a publié une déclaration disant que la société s'était excusée auprès de la famille touchée dans la vidéo virale, mais Hawkins dit que "ce n'est pas suffisant".

Hawkins affirme que le géant de la vente au détail "doit adopter une approche proactive de la pornographie et du matériel d'exploitation sexuelle sur ses plateformes commerciales".

Outre le trafic de pornographie, Amazon propose un service de télévision en streaming qui suggère activement des programmes immoraux aux téléspectateurs, quel que soit leur âge. "Amazon Prime produit des programmes télévisés originaux avec un contenu hautement sexualisé et ne fournit aucun moyen de bloquer les recommandations indésirables de programmes sexuellement explicites", a accusé Hawkins.

Amazon fait partie de la "Dirty Dozen List" du NCOSE, qui expose les grandes entreprises qui facilitent l'exploitation sexuelle.

"D'autres entreprises refusent de faciliter l'exploitation sexuelle", a-t-elle expliqué. "Wal-Mart, par exemple, dans les 24 heures après avoir été contacté par le NCOSE, a supprimé les mêmes livres de photographies de nudité d'enfants qu'Amazon propose toujours."

"Il est clair que la culture commerciale omniprésente chez Amazon continue de répondre aux intérêts pornographiques qui nuisent non seulement aux mineurs mais aussi aux adultes", a conclu Hawkins. "Il est temps pour Amazon d'accepter sa responsabilité d'entreprise d'adopter et d'appliquer rigoureusement des normes qui visent à favoriser un monde sans exploitation sexuelle."

Amazon a déclaré au Washington Standard que le géant de l'entreprise avait déjà reçu "de nombreuses plaintes" concernant son Echo Dot sans contrôle parental et que la société développait des filtres "pour les futurs modèles".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd