Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 513

Incidentes Asociados

Incidente 3435 Reportes
Amazon Alexa Responding to Environmental Inputs

Loading...
Cómo Alexa de Amazon ordenó accidentalmente un montón de casas de muñecas en San Diego
electronicproducts.com · 2017

No se necesita mucho para pedir una mansión de casa de muñecas y cuatro libras de galletas de azúcar con un Amazon Echo

En un giro irónico de los acontecimientos, la asistente de voz de Amazon, Alexa, está resultando ser una oyente bastante terrible (o tal vez tenga algunas cosas que aprender). Si bien pedir tu pizza favorita y transmitir melodías pegadizas son pan comido para el altavoz activado por voz, Alexa de repente se ha estado involucrando en algunas compras involuntarias.

Un Amazon Echo esperando un comando de voz. Fuente de la imagen: Amazon.

Aunque los niños que piden artículos a través de dispositivos no son nada nuevo, los dispositivos activados por voz están provocando este tipo de problemas que los padres tendrán que estar atentos.

Un incidente reciente ocurrió en Dallas, TX a principios de este mes, cuando un niño de seis años le preguntó al nuevo Amazon Echo de su familia: "¿Puedes jugar a la casa de muñecas conmigo y conseguirme una casa de muñecas?" El dispositivo cumplió y ordenó una mansión de muñecas KidKraft Sparkle de $ 150, además de "cuatro libras de galletas de azúcar". Los padres de la niña descubrieron lo que sucedió y desde entonces agregaron un código para realizar cualquier compra.

Esta historia podría haber terminado ahí, pero después de hacer un programa matutino local en CW6 News de San Diego, los propietarios de Echo que estaban viendo la transmisión descubrieron que el comentario provocó órdenes en sus propios dispositivos.

No hace falta decir que este incidente de la casa de muñecas es una prueba de que Alexa siempre está escuchando. El dispositivo comienza a grabar cada vez que escucha la palabra "Alexa", grabando sonido por hasta 60 segundos cada vez. Si bien es útil, esta característica limita con la invasión de la privacidad y ha avivado las preocupaciones generales de seguridad que rodean el auge de los dispositivos IoT.

Aunque los registros cifrados de las grabaciones se mantienen en los servidores de Amazon, el micrófono del dispositivo se puede apagar y las grabaciones se pueden eliminar manualmente de la cuenta.

Para aquellos de ustedes con niños pequeños y un Amazon Echo, sepan que la configuración de Alexa se puede ajustar a través de la aplicación del dispositivo. Los usuarios también pueden desactivar los pedidos por voz por completo o agregar un código de acceso para evitar compras accidentales.

Fuente: El borde

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd