Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1579

Incidents associés

Incident 1836 Rapports
Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Loading...
Banni d'Airbnb sans explication ? Voici pourquoi
au.finance.yahoo.com · 2022

Airbnb fouille peut-être dans les anciens messages des utilisateurs sur les réseaux sociaux pour empêcher les personnes qu'il juge indignes de confiance de quitter le site.

Si l'algorithme qu'il utilise n'aime pas ce qu'il voit, il semble que les utilisateurs peuvent être rejetés sans explication.

C'est ce qui est arrivé à Renae Macheda.

Macheda, qui travaille dans l'immobilier, s'est décrite elle-même et son mari comme "des gens propres et ennuyeux" et a été choquée lorsqu'elle a essayé de réserver un Airbnb l'année dernière et a découvert qu'elle avait été expulsée de la plate-forme.

Lorsqu'elle a commencé à poser des questions, on ne lui a pas donné de raison pour l'interdiction et on lui a dit que la plateforme "avait examiné votre cas de manière approfondie avant de parvenir à cette conclusion".

On lui a également dit qu'elle ne pourrait plus contester la décision.

"Je pense qu'ils devraient vous donner une explication", a déclaré Macheda.

"Ne rien donner du tout et aucune option pour essayer de remédier à quoi que ce soit, ce n'est pas vraiment suffisant."

Les informations peuvent être erronées

Kate Bower, défenseure des données sur les consommateurs de CHOICE, a déclaré qu'il était très préoccupant que les gens n'aient pas la possibilité de vérifier l'exactitude des informations recueillies par ces entreprises.

Il n'est pas difficile d'imaginer des situations où l'algorithme peut se tromper.

Par exemple, Bower a déclaré qu'elle se garait dans le parking d'un magasin d'alcools tous les week-ends pour emmener ses enfants dans un café adjacent.

Pour un algorithme, cela pourrait donner l'impression qu'elle va acheter de l'alcool tous les dimanches à 9h00.

Qu'est-ce qu'il filtre d'autre ?

Il est difficile de savoir exactement ce que l'algorithme recherche, mais les informations disponibles sur le logiciel montrent qu'une personne titulaire d'un doctorat peut être considérée comme plus digne de confiance qu'une personne titulaire d'un baccalauréat, par exemple.

"Et nous ne savons pas vraiment si cela rend quelqu'un plus digne de confiance ou non", a déclaré Bower.

D'autres signes que l'algorithme peut rechercher pourraient être si des personnes ont utilisé de faux noms en ligne, ont été impliquées dans certains types de groupes de médias sociaux ou sont apparues sur des sites d'actualités que la plateforme considère comme peu recommandables.

CHOICE a également entendu parler de personnes qui avaient été bannies parce qu'elles étaient des travailleuses du sexe ou liées à l'industrie d'une manière ou d'une autre.

Matthew Roberts de Sex Work Law Reform Victoria a déclaré que l'interdiction d'une personne d'une plate-forme en raison de sa profession était discriminatoire et que de meilleures protections étaient nécessaires.

Alors qu'est-ce que je peux faire?

Selon Bower, il est très difficile d'empêcher les entreprises de fouiner à moins que vous ne soyez prêt à vous déconnecter complètement.

Elle a déclaré qu'il existait déjà une énorme quantité de données sur les consommateurs et que les algorithmes et les technologies d'apprentissage automatique ne faisaient que s'améliorer pour donner un sens à ces points de données.

Elle a recommandé de lire les politiques de confidentialité, bien qu'elles soient souvent vagues, et de ne pas se connecter aux plateformes en ligne en utilisant votre compte Facebook.

Bower souhaite voir une réglementation plus stricte pour « protéger les gens parce que nous ne sommes pas en mesure de nous protéger ».

"Le comportement d'Airbnb met en évidence une lacune réglementaire importante, qui permet aux entreprises de collecter et d'utiliser des données sans aucune transparence ni responsabilité", a déclaré Bower.

"Le gouvernement fédéral doit renforcer les protections contre les entreprises qui collectent, stockent et utilisent des données personnelles sensibles comme celle-ci."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd