Incidentes Asociados

Las herramientas de supervisión en línea para la realización de exámenes remotos no son suficientes para garantizar el consentimiento libre, claro e individual de los estudiantes canadienses cuyos datos biométricos recopilan, según un nuevo [informe] (https://chaireia.openum.ca/publications/logiciels -de-surveillance-dexamens-en-ligne-en-temps-de-pandemie-a-la-recherche-dune-minimisation-des-risques-datteinte-a-la-vie-privee-des-etudiants/) publicado por la Universidad de Ottawa y con el apoyo de la [Oficina del Comisionado de Privacidad de Canadá] (https://www.priv.gc.ca/en/opc-actions-and-decisions/research/funding-for-privacy-research- and-knowledge-translation/completed-contributions-program-projects/2021-2022/p_2021-22_4/).
Con el aprendizaje en persona interrumpido por la pandemia de COVID-19, muchas instituciones recurrieron a las plataformas de software como una forma de realizar los exámenes. Con frecuencia basadas en inteligencia artificial, herramientas como Respondus, Monitor, ProctorU, Examity y otras utilizan la minería de datos y el reconocimiento facial para monitorear las trampas y presentan lo que Céline Castets-Renard, la profesora de derecho que dirigió el proyecto, denominó “problemas legales de discriminación socioeconómica y privacidad”.
El informe apunta a familiar [problemas](https://www.biometricupdate.com/?posttype=all&s =policía+vigilancia+ai) con discriminación de IA, específicamente “la extralimitación del poder, como la vigilancia pública o la vigilancia policial que utiliza software de reconocimiento facial de IA, con un potencial de discriminación, como sesgos de raza, género y edad”. Pero también identifica el riesgo de ciertos factores socioeconómicos y situacionales que podrían desencadenar alertas de software injustificadas. Según el informe, “una mascota doméstica que hace ruido, como un ladrido o un chirrido, durante un examen de supervisión en línea ha sido identificada como una causa para señalar un posible incidente de trampa”. Las mascotas, los niños y otras variables audiovisuales pueden hacer que el software de vigilancia piense que algo sospechoso está pasando cuando no es así, un problema que se agrava en hogares grandes y multigeneracionales.
Las herramientas biométricas, como el reconocimiento facial, son susceptibles de errores similares. “El análisis biométrico de pulsaciones de teclas que sirve para rastrear los datos de las pulsaciones de teclas, el seguimiento ocular que monitorea y analiza los movimientos oculares, el monitoreo de audio que registra y monitorea a los estudiantes sónicamente y la detección facial son todos métodos utilizados por algunos programas de supervisión”, dice el informe de investigación. Y todos vienen con riesgos inaceptables de que la tecnología marque erróneamente ciertas variaciones en los datos como trampas.
El informe concluye con una serie de recomendaciones relativas a cómo se define y categoriza la IA, y cómo la supervisión humana de las tecnologías de vigilancia en evolución puede ayudar a mantener la transparencia y reducir el error y el sesgo. La recomendación final resume ordenadamente los hallazgos de los investigadores y pide "una reflexión colectiva sobre si prohibir ciertos usos de la IA y los medios para determinar cómo identificar dichos usos prohibidos".