Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1033

Incidentes Asociados

Incidente 5516 Reportes
Alexa Plays Pornography Instead of Kids Song

Loading...
Alexa tiene una respuesta muy explícita a la solicitud de canción aparentemente inocente de un niño pequeño
consumerist.com · 2016

En lo que podría ser un error inocente o una trampa de adultos sabios, la asistente virtual de Amazon, Alexa, le dio a un niño pequeño una respuesta muy interesante a su solicitud de escuchar una canción específica.

"Alexa, toca 'Digger, Digger'", le dice el chico a un Echo Dot sentado en una mesa auxiliar en un video publicado en YouTube. Ahora, no somos expertos en música infantil, pero esta podría ser la canción "Diggers, Dumpers and Trucks" de Kidzone, o "Diggers (Diggers and Dumpers)" de un tipo llamado Tractor Ted.

De cualquier forma que lo mires, la respuesta de Alexa no es ninguna de esas opciones. En cambio, escupe una serie de palabras obscenas que incluyen "consolador", para consternación y diversión inmediata de los adultos en la sala que gritan: "¡DETÉNTE, ALEXA! ¡DETÉNGASE!"

Parece que, por razones desconocidas, Alexa estaba intentando reproducir una pista de 27 segundos con un título muy vulgar (advertencia: probablemente NSFW) que está incluida en un álbum llamado "Ultimate Comedy Ringtones: Vol. 2”, que suena como una advertencia de que el usuario del teléfono tiene demasiada pornografía para que pase una llamada entrante.

“¡Advertencia, advertencia! Demasiada pornografía detectada en este dispositivo”, declara la voz de un hombre en la pista. “¡Hay demasiada pornografía en este teléfono! Debes eliminar parte de la pornografía ahora para dar paso a esta llamada entrante”, y así sucesivamente.

En cuanto a por qué "Digger, digger" haría que Alexa buscara esa pista de tono de llamada, me tienes. Ha sido un año extraño.

(h/t NYMag, Gizmodo)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd