Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 521

Incidentes Asociados

Incidente 3435 Reportes
Amazon Alexa Responding to Environmental Inputs

Loading...
El presentador de televisión dice en vivo al aire 'Alexa, pídeme una casa de muñecas' - adivina qué sucede después
theregister.co.uk · 2017

Una estación de televisión de San Diego generó quejas esta semana, luego de que un informe al aire sobre una niña que ordenó una casa de muñecas a través de Amazon Echo de sus padres provocó que Echoes en las casas de los espectadores también intentaran ordenar casas de muñecas.

La estación Telly CW-6 dijo que el error ocurrió durante un paquete de noticias del jueves por la mañana sobre una niña tejana de seis años que acumuló grandes cargos mientras hablaba con un dispositivo Echo en su casa. Según la cuenta de Amazon de sus padres, su hija dijo: "¿Puedes jugar a la casa de muñecas conmigo y conseguirme una casa de muñecas?". Lo siguiente que supieron fue que una casa de muñecas KidKraft Sparkle Mansion de $ 160 y cuatro libras de galletas de azúcar llegaron a su puerta.

Durante el segmento de esa historia, un presentador de noticias de CW-6 comentó: "Amo a la niña, diciendo 'Alexa me ordenó una casa de muñecas'".

Aparentemente, eso fue suficiente para hacer que las cajas Echo impulsadas por Alexa alrededor de San Diego en sus propias juergas de compras. La estación de California admitió que muchos espectadores se quejaron de que la transmisión de televisión hizo que sus asistentes personales controlados por voz intentaran hacer pedidos de casas de muñecas en Amazon.

Aprovecharemos esta oportunidad para señalar que la compra por comando de voz está habilitada de forma predeterminada en los dispositivos Alexa.

Esta no es la primera vez que un spot televisivo mal concebido causa estragos en los sistemas de control por voz. En 2014, se culpó a un comercial de Microsoft Xbox en el que aparecía el actor Aaron Paul demostrando el control de voz de Kinect por provocar que las consolas de los EE. UU. se iniciaran espontáneamente y lanzaran el juego Titanfall cada vez que se emitía el anuncio. ®

Patrocinado: convertirse en un líder de seguridad pragmático

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd