Incidents associés

Airbnb peut utiliser la prise de décision automatisée pour démarrer les utilisateurs de la plate-forme de location à court terme, en fonction de facteurs tels que les médias sociaux, l'historique d'emploi et votre adresse IP.
Le groupe de défense des consommateurs Choice a appelé Airbnb dans un rapport mettant en doute le manque de transparence autour de son utilisation d'un "algorithme secret" qui juge si les utilisateurs sont "dignes de confiance".
Selon Choice, Airbnb a acheté la startup de vérification des antécédents Trooly en 2017.
Depuis lors, il aurait mis à jour le brevet à plusieurs reprises, suggérant qu'il est en cours d'utilisation.
En ce qui concerne les petits caractères, Airbnb "peut effectuer un profilage" en utilisant vos interactions avec la plate-forme, ainsi que des informations obtenues par des tiers.
Sa politique de confidentialité indique que les processus automatisés, qui analysent les activités des utilisateurs sur et en dehors d'Airbnb, pourraient restreindre ou suspendre l'accès à la plate-forme.
« Choice craint que les entreprises ne mettent en œuvre une prise de décision automatisée à grande échelle sans informer les consommateurs des risques, offrant des possibilités de retrait ou la possibilité de revoir les décisions », a déclaré Kate Bower, défenseure des données sur les consommateurs chez Choice.
Pouvez-vous faire confiance au « digne de confiance » ?
D'une manière générale, le Dr Marc Cheong, maître de conférences en systèmes d'information (éthique numérique) à l'Université de Melbourne, a déclaré qu'une telle prise de décision automatisée pose deux problèmes.
"Le principal problème est que les personnes affectées par cet algorithme peuvent ne pas avoir la possibilité de faire appel ou de demander un recours contre les mesures prises par l'IA", a déclaré le Dr Cheong au New Daily.
La deuxième préoccupation est de savoir si le système collecte ou non des données exactes.
Si vous avez une machine qui parcourt tout ce qui vous concerne en ligne, comment vous assurez-vous que c'est correct ?
Pouvez-vous faire confiance à l'algorithme de « fiabilité » ?
Choice a parlé aux Australiens qui ont été expulsés d'Airbnb, malgré de bonnes critiques.
Renae Macheda, qui s'est décrite elle-même et son mari comme "des gens propres et ennuyeux", a déclaré qu'elle n'avait reçu aucune véritable explication pour l'interdiction.
"Ne rien donner du tout et aucune option pour essayer de remédier à quoi que ce soit, ce n'est pas vraiment suffisant", a-t-elle déclaré à Choice.
"Coupable par association"
Qu'en est-il des photos ou des commentaires dans lesquels vous êtes tagué en ligne ?
Le Dr Cheong a déclaré que l'utilisateur concerné serait alors "coupable par association", car ce sont les activités des personnes de votre réseau social qui vous affectent, au lieu d'eux.
La professeure de droit Jeannie Paterson, directrice du Centre d'intelligence artificielle et d'éthique numérique de l'Université de Melbourne, a déclaré que la prise de décision algorithmique n'est pas seulement difficile à comprendre, elle peut enraciner ou amplifier les préjugés existants et conduire à la discrimination.
"L'idée que vous pouvez déterminer la" fiabilité "de la présence de quelqu'un sur les réseaux sociaux doit être de la" science de pacotille ", pour citer l'ancien commissaire aux droits de l'homme Ed Santow", a déclaré le professeur Paterson à TND.
Le cas de la réforme du droit
Comme l'a expliqué le professeur Paterson, Airbnb est une entreprise privée.
"Il peut décider qui utilise et n'utilise pas ses propriétés."
Malheureusement, comme la loi existe maintenant, les personnes qui se font expulser de la plate-forme ont très peu d'options.
"Vous êtes accusé à tort d'être perturbé et vous répondez:" Je ne le suis pas ", mais vous n'avez aucun moyen de contester cette décision", a déclaré le professeur Paterson.
"Cette décision est prise par un algorithme et Airbnb ne semble pas fournir de procédure pour faire appel, contrairement à Instagram ou TikTok."
Bien qu'un client puisse prétendre, bien qu'avec difficulté, que son renvoi était injuste, le professeur Paterson a déclaré que l'option la plus solide était de défendre la réforme du droit.
«Il est donc très important de mettre en lumière ces pratiques, car en fin de compte, des entreprises comme Airbnb prospèrent grâce à leur réputation et s'il y a une faille de réputation dans l'utilisation de ce processus injuste, cela pourrait les inciter à nettoyer leur acte. .”
Le professeur Paterson a déclaré que les médias sociaux et l'économie des plateformes font désormais partie de nos vies, il est donc important que les entreprises – et pas seulement Airbnb utilisant la prise de décision automatisée – reconnaissent qu'elles ont besoin d'une bonne gouvernance.
Quelque peu optimiste, le Dr Cheong a déclaré que l'utilisation responsable de l'IA doit avoir, au minimum, des cadres de surveillance et d'audit humains pour restaurer la confiance.
Il doit y avoir un processus clair et transparent pour contester les décisions qui affectent les personnes.
Airbnb n'a pas répondu à la demande de commentaires du New Daily à temps pour la publication.