Incidentes Asociados

Cuando surgen daños algorítmicos, una respuesta razonable es dejar de usar el algoritmo para resolver inquietudes relacionadas con la equidad, la responsabilidad, la transparencia y la ética (FATE). Sin embargo, el hecho de que se elimine un algoritmo no implica que sus problemas relacionados con FATE dejen de existir. En este artículo, presentamos la noción de “huella algorítmica” para ilustrar cómo la mera eliminación de un algoritmo no necesariamente deshace o mitiga sus consecuencias. Ponemos en práctica este concepto y sus implicaciones a través de los eventos de 2020 que rodean la calificación algorítmica de los exámenes de Nivel Avanzado (A) del Certificado General de Educación (GCE), un examen de diploma de escuela secundaria con sede en el Reino Unido reconocido internacionalmente administrado en más de 160 países. Si bien la estandarización algorítmica finalmente se eliminó debido a las protestas globales, mostramos cómo la eliminación no logró deshacer la huella algorítmica en las infraestructuras sociotécnicas que dan forma a las vidas de los estudiantes, maestros y padres. Estos eventos brindan una rara oportunidad de analizar el estado del mundo con y sin mediación algorítmica. Situamos nuestro estudio de caso en Bangladesh para ilustrar cómo los algoritmos creados en el Norte Global impactan desproporcionadamente a las partes interesadas en el Sur Global. Haciendo una crónica de más de un año de participación comunitaria que consta de 47 entrevistas, presentamos la primera línea de tiempo coherente de "qué" sucedió en Bangladesh, contextualizando "por qué" y "cómo" sucedió a través de los lentes de la huella algorítmica y la justicia algorítmica situada. Al analizar estos eventos, destacamos cómo se pueden inferir los contornos de las huellas algorítmicas a nivel infraestructural, social e individual. Compartimos implicaciones conceptuales y prácticas sobre cómo la conciencia de impresión puede (a) ampliar los límites de cómo pensamos sobre el impacto algorítmico, (b) informar cómo diseñamos algoritmos y (c) guiarnos en la gobernanza de la IA. La mentalidad de diseño consciente de la impresión puede hacer que el proceso de desarrollo algorítmico esté más centrado en el ser humano y sociotécnicamente informado.