Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2082

Incidents associés

Incident 3555 Rapports
Uber Allegedly Wrongfully Accused Drivers of Fraud via Automated Systems

Loading...
Les décisions de justice néerlandaises ouvrent de nouvelles perspectives sur les droits des données des travailleurs à la demande
ft.com · 2021

Un tribunal d'Amsterdam a ordonné à Ola d'être plus transparent sur les données qu'il utilise comme base pour les décisions sur les suspensions et les pénalités salariales, dans une décision qui innove sur les droits des travailleurs soumis à une gestion algorithmique.

James Farrar et Yaseen Aslam, qui ont remporté une victoire historique contre Uber devant la Cour suprême du Royaume-Uni le mois dernier, ont mené l'action d'un groupe de chauffeurs britanniques et d'un chauffeur portugais, qui ont intenté trois affaires distinctes contre Ola et Uber pour obtenir un accès plus complet à leurs données personnelles. Les données.

Dans l'affaire contre Ola Cabs, le tribunal de district d'Amsterdam a conclu que l'application de réservation de voiture avait utilisé un système entièrement automatisé pour effectuer des déductions sur les revenus d'un conducteur - une conclusion qui attire une plus grande protection juridique.

Anton Ekker, l'avocat représentant les chauffeurs, a déclaré qu'à sa connaissance, c'était la première fois qu'un tribunal concluait que les travailleurs étaient soumis à une prise de décision automatisée telle que définie à l'article 22 du règlement général sur la protection des données de l'UE — leur donnant ainsi la possibilité droit d'exiger une intervention humaine, d'exprimer son point de vue et de faire appel de la décision.

Le tribunal a déclaré qu'Ola devrait donner aux conducteurs l'accès à des évaluations anonymes de leurs performances, aux données personnelles utilisées pour créer leur "score de probabilité de fraude" et aux données utilisées pour créer un profil de revenus qui influence la répartition du travail.

Ola n'a pas immédiatement répondu à une demande de commentaire.

Dans une décision distincte, le tribunal a déclaré qu'Uber devrait donner à deux conducteurs accusés d'activités frauduleuses l'accès aux données qu'il avait utilisées pour les bloquer de l'application. Il a également déclaré qu'Uber devrait donner aux conducteurs l'accès à des évaluations individuelles anonymisées de leurs performances, plutôt que de fournir une moyenne mobile de la note sur de nombreux trajets.

Mais le tribunal a rejeté les affirmations des conducteurs selon lesquelles Uber avait suspendu leurs comptes sans surveillance humaine significative. Il n'a accordé aucune compensation ni exigé qu'Uber donne des informations plus complètes sur la façon dont les prix ont été calculés ou des notes ajoutées aux profils des conducteurs, affirmant que les demandeurs n'avaient pas précisé quelles données manquaient.

Uber a déclaré: "C'est une décision cruciale. Le tribunal a confirmé que le système de répartition d'Uber n'équivaut pas à une prise de décision automatisée et que nous avons fourni aux chauffeurs les données auxquelles ils ont droit. Le tribunal a également confirmé que les processus d'Uber impliquaient une implication humaine significative.

Farrar, un ancien chauffeur d'Uber qui a depuis créé le syndicat des chauffeurs Worker Info Exchange, a déclaré : "C'est une première étape extrêmement importante... Nous allons devoir faire beaucoup plus."

Gagner l'accès aux données était crucial, a-t-il déclaré, car à mesure que les accords contractuels des plateformes avec les travailleurs faisaient l'objet d'un examen plus approfondi, ils se tournaient vers des systèmes de gestion automatisés plus opaques. Une plus grande transparence aiderait non seulement les conducteurs à contester les décisions injustes à leur encontre, mais aiderait également à déterminer leur salaire horaire moyen après déduction des coûts.

Cette histoire a été modifiée pour clarifier la distinction dans les décisions concernant les deux sociétés différentes

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd