Incidents associés

Lorsque des dommages algorithmiques apparaissent, une réponse raisonnable consiste à cesser d'utiliser l'algorithme pour résoudre les problèmes liés à l'équité, la responsabilité, la transparence et l'éthique (FATE). Cependant, ce n'est pas parce qu'un algorithme est supprimé que ses problèmes liés à FATE cessent d'exister. Dans cet article, nous introduisons la notion d'« empreinte algorithmique » pour illustrer comment la simple suppression d'un algorithme n'annule pas ou n'atténue pas nécessairement ses conséquences. Nous opérationnalisons ce concept et ses implications à travers les événements de 2020 entourant la notation algorithmique des examens de niveau avancé (A) du General Certificate of Education (GCE), un examen de diplôme d'études secondaires basé au Royaume-Uni et administré dans plus de 160 pays. Alors que la normalisation algorithmique a finalement été supprimée en raison de protestations mondiales, nous montrons comment la suppression n'a pas réussi à défaire l'empreinte algorithmique sur les infrastructures sociotechniques qui façonnent la vie des élèves, des enseignants et des parents. Ces événements offrent une chance rare d'analyser l'état du monde avec et sans médiation algorithmique. Nous situons notre étude de cas au Bangladesh pour illustrer comment les algorithmes fabriqués dans le Nord ont un impact disproportionné sur les parties prenantes du Sud. Chronique de plus d'un an d'engagement communautaire composé de 47 entretiens, nous présentons la première chronologie cohérente de « ce » qui s'est passé au Bangladesh, contextualisant « pourquoi » et « comment » ils se sont produits à travers les lentilles de l'empreinte algorithmique et de l'équité algorithmique située. En analysant ces événements, nous mettons en évidence comment les contours des empreintes algorithmiques peuvent être déduits aux niveaux infrastructurel, social et individuel. Nous partageons des implications conceptuelles et pratiques sur la façon dont la sensibilisation aux empreintes peut (a) élargir les limites de notre réflexion sur l'impact algorithmique, (b) informer la manière dont nous concevons des algorithmes et (c) nous guider dans la gouvernance de l'IA. L'état d'esprit de conception sensible à l'empreinte peut rendre le processus de développement algorithmique plus centré sur l'humain et informé sur le plan sociotechnique.