Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1576

Incidents associés

Incident 1836 Rapports
Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Loading...
Airbnb utilise-t-il un algorithme pour bannir les utilisateurs de la plateforme ?
choice.com.au · 2022

Airbnb utilise peut-être la prise de décision automatisée pour laisser certains utilisateurs à l'écart.

Si vous avez déjà été sur le marché pour une location de vacances au cours des dernières années, il y a de fortes chances que vous ayez été sur Airbnb.

La plateforme basée aux États-Unis est devenue un géant mondial sur le marché de la location à court terme, avec 5,6 millions de propriétés répertoriées sur son site Web dans le monde en 2021 seulement. Plus de 800 millions de personnes dans le monde ont séjourné dans une propriété Airbnb.

Mais alors que l'entreprise est devenue synonyme de vacances, certains utilisateurs en Australie se retrouvent bloqués et bannis de la plateforme, et se demandent pourquoi.

Airbnb acquiert un algorithme de "fiabilité"

En 2017, Airbnb a acquis une startup technologique appelée Trooly, spécialisée dans la vérification des antécédents et avait auparavant breveté un algorithme qui recueillait des données publiques et privées sur les utilisateurs pour leur donner un score de "fiabilité".

Kate Bower, défenseure des données sur les consommateurs chez CHOICE, explique que les données que l'algorithme utilise pour évaluer votre "fiabilité" incluent les comptes de médias sociaux de vous-même et de vos amis, ce que vous faites dans la vie, votre niveau d'éducation et toute autre donnée en ligne qu'il peut trouver.

Évaluation des traits de personnalité

L'algorithme breveté est censé évaluer les traits de personnalité des personnes, tels que le narcissisme ou la conscience, ainsi que les traits de comportement, tels que la consommation de drogues ou d'alcool ou l'implication dans des poursuites civiles et d'autres comportements, et les combiner pour créer un score holistique qui juge le comportement d'une personne. fiabilité.

Airbnb a mis à jour le brevet, qu'il détient directement, à plusieurs reprises depuis 2017. Cela suggère qu'il utilise et développe l'algorithme, pas seulement en le laissant languir sur une étagère arrière.

La politique de confidentialité d'Airbnb comprend une déclaration générale indiquant que l'algorithme peut être utilisé en Australie. Il stipule que "nous pouvons effectuer un profilage… [et que] les processus automatisés, qui analysent votre compte et vos activités sur la plate-forme Airbnb ainsi que les informations relatives aux activités sur et hors de la plate-forme Airbnb qui peuvent vous être associées, pourraient restreindre ou suspendre l'accès à la plateforme Airbnb".

Que sait Airbnb de vous ?

La plateforme de location à court terme Airbnb utilise peut-être un algorithme caché pour vous donner un score de fiabilité basé sur vos informations en ligne. Ce score pourrait être utilisé pour vous exclure du service.

Comparaison des informations collectées par les hôtels et Airbnb :

Les hôtels consultent et collectent vos pièces d'identité, votre mode de paiement et vos coordonnées.

Airbnb consulte et collecte vos documents d'identification, votre mode de paiement, vos coordonnées, votre adresse IP, les identifiants de l'appareil, les données de localisation, ainsi que les connexions aux réseaux sociaux, l'historique de l'emploi et de l'éducation.

Les clients signalent être bloqués sans raison

Renae Macheda se décrit elle-même et son mari comme "des gens propres et ennuyeux". Elle travaille dans l'immobilier et a été déconcertée lorsqu'elle a tenté de réserver un logement à Sydney en octobre – pour se retrouver bannie d'Airbnb et son compte fermé.

L'entreprise ne lui a donné aucune raison pour l'interdiction. Lorsqu'elle a demandé la décision, elle a reçu un bref e-mail qui n'était plus éclairant.

Il disait : « Après avoir examiné toutes les informations dont nous disposons, nous avons déterminé que votre compte sera supprimé de la plate-forme Airbnb. La suppression signifie que votre compte ne sera plus accessible et que vous ne pourrez pas en créer un autre. . Nous tenons à vous assurer que nous avons soigneusement examiné votre cas avant d'arriver à cette conclusion. En tant que tel, nous ne serons pas en mesure de vous offrir une assistance supplémentaire à ce sujet pour le moment."

"Ce n'est pas vraiment assez bon"

Renae dit à CHOICE qu'elle n'a jamais eu de dispute avec un hôte Airbnb et qu'elle n'a eu que de bonnes critiques de ses nombreuses vacances. Elle dit qu'elle est "dévastée" par la décision et se sent abandonnée par l'entreprise.

"Je pense qu'ils devraient vous donner une explication", dit-elle. "Ne rien donner du tout et aucune option pour essayer de remédier à quoi que ce soit, ce n'est pas vraiment suffisant."

Les experts en technologie disent: "Soyez plus convivial pour le consommateur"

Ellen Broad du Collège d'ingénierie et d'informatique de l'Université nationale australienne (ANU) affirme que des entreprises comme Airbnb, qui fonctionnent de la même manière que les services publics, devraient être liées par un ensemble similaire de responsabilités.

"Ils ont la responsabilité de donner aux gens des moyens significatifs de comprendre pourquoi une interdiction se produit et des moyens significatifs de faire appel, mais ils ne le font pas", a-t-elle déclaré à CHOICE.

Julian Thomas, du RMIT et directeur du Centre d'excellence ARC pour la prise de décision automatisée et la société (ADM+S), exprime également des inquiétudes quant à l'utilisation potentielle de l'algorithme en Australie.

"Nous devons examiner comment nous pouvons mieux réglementer ces systèmes pour nous assurer qu'ils sont beaucoup plus conviviaux pour les consommateurs, qu'ils respectent les droits des personnes, qu'ils sont plus responsables", dit-il.

Les travailleuses du sexe interdites

Rick Andrews (pseudonyme) est un masseur érotique basé à Melbourne qui s'est retrouvé banni d'Airbnb l'année dernière lorsqu'il a tenté de réserver des vacances à Sydney.

Il dit qu'il n'a eu que de bonnes critiques parmi les dizaines de vacances locales et internationales qu'il a réservées via la plateforme.

Airbnb lui a envoyé un e-mail indiquant que son compte avait été signalé lors d'un "examen de sécurité standard".

L'e-mail disait: "Il s'est avéré que votre compte était lié à une activité contraire à nos conditions d'utilisation, en particulier il était lié à des publicités en ligne pour des services pour adultes, qui peuvent inclure des activités d'escorte et de la pornographie commerciale."

Rick dit: "J'étais indigné, c'est incroyable, qu'ai-je fait? Assassiné quelqu'un?"

Jane (pas son vrai nom), une travailleuse du sexe basée à Melbourne, dit que son compte a été bloqué en 2018. Elle pense que cela était dû au fait qu'il était lié à des publicités en ligne pour le travail du sexe, et dit "qu'aucune explication ne m'a été donnée à tout".

L'interdiction pourrait être discriminatoire

Matthew Roberts de Sex Work Law Reform Victoria dit que l'interdiction d'une personne d'une plate-forme en raison de sa profession est discriminatoire et devrait être protégée contre.

"Je pense que nous devrions tous être conscients de ce que fait Airbnb avant de nous inscrire à Airbnb, cela n'est ni divulgué ni rendu transparent", a-t-il déclaré à CHOICE.

Gala Vanting de Scarlet Alliance, l'organisme représentatif national des travailleuses du sexe, affirme avoir également vu un grand nombre de cas de travailleuses du sexe bannies d'Airbnb.

"Pour de nombreuses travailleuses du sexe retirées d'Airbnb, il n'y a aucun processus, aucune violation de leurs conditions, aucune histoire pour expliquer leur perte d'accès - et aucun processus d'appel pour obtenir une explication ou récupérer un compte", déclare Vanting. "Le silence d'Airbnb autour de ces cas est assourdissant."

Airbnb vague sur l'utilisation de l'algorithme en Australie

Nous avons envoyé une liste de questions détaillées à Airbnb Australie, dans l'espoir d'en savoir plus sur la manière dont son algorithme est utilisé dans ce pays.

Mais la réponse de l'entreprise était extrêmement vague. Il a déclaré: "La sûreté, la sécurité et la confidentialité de notre communauté sont l'une de nos principales priorités. Les mesures de sécurité et de sécurité de notre plate-forme sont conçues pour garantir que les séjours sont des expériences sûres et positives pour les hôtes, les voyageurs et la communauté au sens large - tout en protégeant les utilisateurs. ", y compris leurs informations personnelles."

'Manque de transparence'

Bower dit que cette réponse n'est pas assez bonne et qu'Airbnb a le devoir d'informer les clients australiens de la manière dont il collecte et utilise leurs données.

"Il y a un manque de transparence inquiétant sur les pratiques potentiellement nocives et invasives", dit-elle. "Airbnb affirme qu'il offre aux utilisateurs la possibilité de faire examiner leurs décisions automatisées, mais en réalité, les gens ne savent pas pourquoi ils ont été retirés de la plate-forme."

L'utilisation d'algorithmes en plein essor

Kimberlee Weatherall est professeur de droit à l'Université de Sydney et chercheuse en chef au Centre d'excellence ARC pour ADM+S. Elle dit qu'il y a plusieurs choses préoccupantes à propos de l'algorithme d'Airbnb et de son utilisation de données sans rapport avec l'historique de location Airbnb des personnes pour juger de leur comportement dans une propriété.

"En utilisant ce qu'ils ont fait à l'université il y a deux ans pour décider s'ils auront un logement de vacances demain, ce croisement de contextes, je pense que c'est un vrai problème", dit-elle à CHOICE. "Ces algorithmes punissent les gens pour le comportement des autres ou punissent les gens pour leur comportement passé."

Elle compare ce « croisement de contextes » dans l'utilisation des données au système controversé de notation du crédit social en Chine, et dit que nous devrions nous inquiéter.

"Cette idée que vous êtes surveillé dans tous les types de contextes et que les mauvais comportements sur une seule métrique peuvent entraîner une punition est préoccupante", dit-elle.

"Dans l'exemple de la Chine, vous n'avez pas payé vos amendes, vous n'êtes donc pas autorisé à monter dans un train. Si nous passons à un monde où nous disons que c'est OK pour Airbnb de vous surveiller dans plusieurs contextes, alors les gens vont doivent commencer à se censurer en ligne et ce qu'ils publient."

Les dangers du « score social »

Bower est d'accord avec Weatherall, affirmant que "l'algorithme équivaut à une forme de notation sociale rappelant un épisode de Black Mirror" (Black Mirror est une série télévisée de science-fiction britannique qui se concentre sur l'utilisation dystopique de la technologie, souvent dans un avenir proche). La notation sociale, parfois appelée « crédit social », se produit lorsqu'un système automatisé évalue la fiabilité d'une personne ou son comportement futur probable.

Tout comme les rapports de solvabilité visent à juger de la capacité d'une personne à rembourser une dette à partir de son comportement financier passé, les algorithmes de notation sociale tentent de prédire la probabilité qu'une personne se comporte d'une certaine manière en fonction de son comportement passé, tel qu'il ressort de ses données personnelles. .

La notation sociale peut reproduire des préjugés sociétaux et conduire à une discrimination dans la vie réelle. "La plupart des Australiens seraient choqués que des entreprises à but lucratif comme Airbnb se soient nommées arbitres moraux de leur comportement", déclare Bower.

Régulation nécessaire

La prise de décision automatisée est un processus informatisé qui peut remplacer ou aider la prise de décision humaine, souvent en utilisant l'analyse avancée des données et l'apprentissage automatique.

Son utilisation se développe dans le monde entier, y compris en Australie. Bower déclare : « Il est déjà largement utilisé dans les rapports de solvabilité, les assurances et les services financiers et nous le verrons probablement augmenter dans d'autres secteurs, notamment le logement, la santé, la vente au détail et bien d'autres. Il a un grand potentiel pour améliorer les services aux consommateurs, mais il est aussi potentiellement nocif."

Le modèle européen

Thomas, du Centre d'excellence ARC pour ADM+S, déclare que l'Australie doit envisager de réglementer la manière dont les entreprises utilisent les données intercontextuelles pour la prise de décision automatisée. Il dit que l'Australie pourrait suivre la ligne de l'Union européenne (UE), qui répond actuellement aux préoccupations concernant la prise de décision automatisée et la notation sociale.

"Nous [l'Australie] sommes un petit marché, il est donc logique que nous suivions l'exemple de l'UE à ce sujet", a-t-il déclaré. "Toutes les entreprises mondiales devront interagir d'une manière ou d'une autre avec le marché européen et leurs politiques sont souvent mondiales. Si nous pensons que le cadre de l'UE offre de solides garanties aux consommateurs, je pense que nous devrions travailler avec celles-ci."

CHOICE pousse pour de meilleures protections

Notre soumission à la révision de la loi sur la protection de la vie privée soutient l'adoption du cadre de l'UE, qui propose une interdiction pure et simple des algorithmes de notation sociale, ainsi que la réglementation d'autres utilisations de la prise de décision automatisée et de l'intelligence artificielle qui présentent un risque élevé pour les consommateurs.

Selon Bower, l'utilisation potentielle par Airbnb de son algorithme dans un espace non réglementé est très préoccupante.

"CHOICE craint que les entreprises ne mettent en œuvre à grande échelle la prise de décision automatisée sans informer les consommateurs des risques, offrant des possibilités de retrait ou la possibilité de revoir les décisions", dit-elle.

"La prise de décision automatisée a le potentiel de prendre des décisions inexactes ou biaisées et de conduire à la discrimination et à des pratiques déloyales."

Pensez-vous qu'il est injuste qu'Airbnb puisse utiliser vos données personnelles dans la prise de décision automatisée pour vous empêcher d'accéder à la plateforme ? Répondez à notre sondage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd