Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2111

Incidents associés

Incident 3611 Rapport
Amazon Echo Mistakenly Recorded and Sent Private Conversation to Random Contact

Loading...
Une femme dit que son appareil Amazon a enregistré une conversation privée et l'a envoyée à un contact aléatoire
kiro7.com · 2018

Une famille de Portland a contacté Amazon pour enquêter après avoir déclaré qu'une conversation privée dans leur maison avait été enregistrée par Alexa d'Amazon – le haut-parleur intelligent à commande vocale – et que l'audio enregistré avait été envoyé au téléphone d'une personne au hasard à Seattle, qui était dans la liste de contacts de la famille.

"Mon mari et moi plaisantions et disions que je parierais que ces appareils écoutent ce que nous disons", a déclaré Danielle, qui ne voulait pas que nous utilisions son nom de famille.

Chaque pièce de sa maison familiale était câblée avec les appareils Amazon pour contrôler la chaleur, les lumières et le système de sécurité de sa maison.

Mais Danielle a déclaré il y a deux semaines que leur amour pour Alexa avait changé avec un appel téléphonique alarmant. "La personne à l'autre bout du fil a dit : 'débranchez vos appareils Alexa tout de suite'", a-t-elle déclaré. "'Vous êtes piraté.'"

Cette personne était l'un des employés de son mari, appelant de Seattle.

"Nous les avons tous débranchés et il nous a dit qu'il avait reçu des fichiers audio d'enregistrements de l'intérieur de notre maison", a-t-elle déclaré. "Au début, mon mari était, comme, 'non tu ne l'as pas fait!' Et le (destinataire du message) a dit "Vous étiez assis là à parler de parquet". Et nous avons dit, 'oh mon Dieu, vous nous avez vraiment entendus.'"

Danielle a écouté la conversation quand elle lui a été renvoyée, et elle ne pouvait pas croire que quelqu'un à 176 miles de là l'ait entendue aussi.

"Je me suis sentie envahie", dit-elle. "Une invasion totale de la vie privée. J'ai immédiatement dit : 'Je ne rebrancherai plus jamais cet appareil, parce que je ne peux pas lui faire confiance.'"

Danielle dit qu'elle a débranché tous les appareils et qu'elle a appelé Amazon à plusieurs reprises. Elle dit qu'un ingénieur Alexa a enquêté.

"Ils ont dit" nos ingénieurs ont parcouru vos journaux, et ils ont vu exactement ce que vous nous avez dit, ils ont vu exactement ce que vous avez dit, et nous sommes désolés. Il s'est excusé environ 15 fois en 30 minutes et il a dit que nous apprécions vraiment que vous ayez porté cela à notre attention, c'est quelque chose que nous devons régler !"

Mais Danielle dit que l'ingénieur n'a pas fourni de détails sur la raison pour laquelle cela s'est produit, ou s'il s'agit d'un problème répandu.

"Il nous a dit que l'appareil avait simplement deviné ce que nous disions", a-t-elle déclaré. Danielle a déclaré que l'appareil ne l'avait pas avertie de manière audible qu'il se préparait à envoyer l'enregistrement, ce qu'il est programmé pour faire.

Lorsque KIRO 7 a posé des questions à Amazon, ils ont envoyé cette réponse :

"Amazon prend la confidentialité très au sérieux. Nous avons enquêté sur ce qui s'est passé et déterminé qu'il s'agissait d'un événement extrêmement rare. Nous prenons des mesures pour éviter que cela ne se reproduise à l'avenir."

Jeudi après-midi, la porte-parole d'Amazon, Shelby Lichliter a envoyé cette déclaration :

"Echo s'est réveillé à cause d'un mot dans une conversation en arrière-plan ressemblant à "Alexa". Ensuite, la conversation qui a suivi a été entendue comme une demande "envoyer un message". À ce moment-là, Alexa a dit à haute voix "À qui ?" À ce moment-là, la conversation en arrière-plan a été interprétée comme un nom dans la liste de contacts du client. Alexa a alors demandé à voix haute : "[nom du contact], n'est-ce pas ?" Alexa a ensuite interprété la conversation en arrière-plan comme "correcte". Aussi improbable que soit cette série d'événements, nous évaluons les options pour rendre ce cas encore moins probable."

Amazon a proposé de "déprovisionner" les communications Alexa de Danielle afin qu'elle puisse continuer à utiliser ses fonctionnalités Smart Home. Mais Danielle espère qu'Amazon lui remboursera ses appareils, ce qu'elle a dit que leurs représentants n'étaient pas disposés à faire. Elle dit qu'elle est curieuse de savoir si quelqu'un d'autre a rencontré le même problème.

"Un mari et une femme dans l'intimité de leur maison ont des conversations qu'ils ne s'attendent pas à envoyer à quelqu'un (dans) leur carnet d'adresses", a-t-elle déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd