Incidentes Asociados

La biometría de supervisión en línea para exámenes remotos no cumple con el umbral legal de consentimiento, privacidad y antidiscriminación de Canadá, según un nuevo informe académico de la Universidad de Ottawa con el apoyo de la Oficina del Comisionado de Privacidad de Canadá.
El informe examina cómo las herramientas de inteligencia artificial como Respondus, Proctorio, Monitor, ProctorU y Examity han aumentado su uso como herramientas de supervisión en línea para compensar la incapacidad de realizar exámenes en persona durante la pandemia.
Sin embargo, la líder del proyecto y profesora de derecho Céline Castets-Renard ha señalado varios de sus "problemas legales de discriminación socioeconómica y privacidad".
Por un lado, estas plataformas de software utilizan la minería de datos y el reconocimiento facial para monitorear las trampas. Sin embargo, el informe encontró que no hay garantía de que estas plataformas de software aseguren [un consentimiento claro e individual](https://www.canadianlawyermag.com/news/opinion/getting-it-right-using-consumer-facing-ai-tools- sabiamente/330244) de estudiantes canadienses cuyos datos biométricos se recopilan.
El informe también considera que la recopilación de datos y el control de retención son más difíciles porque muchas de estas empresas de tecnología tienen su sede en los EE. UU., lo que podría requerir que transfieran datos a los EE. UU.
En cuanto al reconocimiento facial, ya no sorprende que las herramientas de inteligencia artificial contengan un alto potencial de discriminación racial, de género y de edad. Sin embargo, los factores socioeconómicos también provocan alertas de software injustificadas.
Por ejemplo, el informe encontró que la tecnología puede marcar un solo ladrido o chirrido de una mascota ruidosa como un posible incidente de trampa durante un examen en línea. Otras variables audiovisuales como vivir con niños, residir en un hogar multigeneracional, estar en una zona rural y la falta de acceso a equipos adecuados también pueden agravar el potencial de discriminación.
"Los estudiantes pueden ser colocados en una posición desigual por razones socioeconómicas", [se lee en el informe] (https://www.priv.gc.ca/en/opc-actions-and-decisions/research/funding-for-privacy- investigación-y-conocimiento-traducción/contribuciones-completadas-programa-proyectos/2021-2022/p_2021-22_4/). "Tales factores de discriminación novedosos a menudo están completamente ausentes de la discusión sobre discriminación de AI, por lo tanto, el uso de software de supervisión basado en AI es un escenario particularmente importante y distintivo que las regulaciones deben considerar".
Teniendo en cuenta estos diversos factores, el informe concluye que el "potencial de daño no es insignificante". En particular, los estudiantes interseccionales podrían estar sujetos a un "[riesgo extremo de discriminación] (https://www.canadianlawyermag.com/news/general/report-says-use-of-ai-could-be-violating-human- rights/275501) por el software de supervisión en línea".