Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1029

Incidentes Asociados

Incidente 5516 Reportes
Alexa Plays Pornography Instead of Kids Song

Loading...
Amazon Alexa llega a la lista traviesa con NSFW Diatriba frente a un niño
itechpost.com · 2016

Amazon Alexa llega a la lista traviesa con NSFW Diatriba frente a un niño

Cerca

Todo lo que quería era escuchar una canción infantil.

Un video de YouTube publicado el 29 de diciembre pasado se ha vuelto viral con 1,2 millones de visitas al momento de escribir este artículo. El video muestra a un niño pequeño hablando con un Amazon Echo Dot y pidiéndole a Alexa que toque una canción infantil.

Lo que obtuvo fue un bocado de palabras NSFW.

En el video, el niño le pide a Alexa que toque una canción infantil o una canción que suene como "Digger, Digger". Mi mejor conjetura es que quiere escuchar a Hickory Dickory Duck. Solo mirar el título de la canción de cuna le dará una idea de por qué Alexa pensó que escuchó una palabra que rima con "rápido". Como en "¡Rápido, apaga esa maldita cosa!"

Ahora Alexa no tiene toda la culpa aquí. Ella solo está siendo una buena soldado mientras hace lo que le dicen... o cree que le dijeron. Por supuesto, es difícil señalar con el dedo acusador al niño que recién está aprendiendo a hablar. Como todos los demás a su edad, su discurso era un poco confuso. Incluso los adultos que bebieron demasiado no pueden hablar con claridad, por lo que el niño en el video pasa esta vez.

Vaya a la sección de comentarios de la publicación y encontrará muchas reacciones y acusaciones divertidas. Al menos una persona culpó hilarantemente al padre del niño por el booboo.

Verás, Alexa registra lo que escucha y usa los datos para personalizar su reacción con el usuario. Esta es la misma razón por la que las autoridades policiales están tratando de que Amazon les proporcione los datos de cierto dispositivo Echo que se encontró en la escena del crimen.

Ahora, si Alexa dice algunas palabras sexualmente explícitas, es fácil decir que tiene algo que ver con los datos que ya ha recopilado. En este caso, "era el historial de navegación de su padre", como señaló un comentarista.

Pero acaban de recibir el dispositivo, ¿así dices?

Otro comentarista explicó que el Echo Dot está conectado a su cuenta de Amazon, por lo que, a pesar de que salió de la caja recientemente, ya tiene datos recopilados a través de la cuenta.

La lección aquí es tener cuidado al tratar con la tecnología, especialmente si hay niños en la casa. Si bien este incidente se puede anotar como algo de lo que se puede reír, puede haber repercusiones. Para evitar incidentes adversos, como que un niño vea pornografía accidentalmente, use filtros y tome otras medidas necesarias para proteger a los niños de las negatividades de la tecnología.

Lo que esto prueba es que Alexa sabe muchas cosas. Démosle eso.

Ahora que eso está arreglado...

¿Sabes que puedes enseñarle a Alexa a decir lo que quieras?

Amazon informó recientemente a los propietarios de sus parlantes inteligentes que pueden hacer que Alexa repita las palabras que dicen. El propietario solo necesita decir "Alexa, Simon dice" seguido de la palabra o palabras que el propietario elija. Afortunadamente, Alexa es lo suficientemente inteligente como para pronunciar malas palabras.

Alexa ahora también tiene soporte de comando de voz limitado para Spotify, Pandora e iTunes. Esto se suma al soporte integrado para Amazon Music Services, iHeartRadio y TuneIn.

ETIQUETA Amazonas, Alexa, NSFW

Suscríbase al boletín ITECHPOST Obtenga las historias más populares de iTechPost en un boletín semanal

© 2019 ITECHPOST, Todos los derechos reservados. No reproducir sin permiso.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd