Incidents associés

La biométrie de surveillance en ligne pour les examens à distance ne respecte pas le seuil légal du Canada en matière de consentement, de confidentialité et d'anti-discrimination, selon un nouveau rapport universitaire de l'Université d'Ottawa avec le soutien du Commissariat à la protection de la vie privée du Canada.
Le rapport examine comment les outils d'intelligence artificielle tels que Respondus, Proctorio, Monitor, ProctorU et Examity ont augmenté en tant qu'outils de surveillance en ligne pour compenser l'incapacité à effectuer des examens en personne pendant la pandémie.
Cependant, la chef de projet et professeure de droit Céline Castets-Renard a pointé du doigt plusieurs de ses "problèmes juridiques de discrimination socio-économique et de respect de la vie privée".
D'une part, ces plates-formes logicielles utilisent l'exploration de données et la reconnaissance faciale pour surveiller la tricherie. Pourtant, le rapport a révélé qu'il n'y avait aucune garantie que ces plates-formes logicielles garantissent [un consentement clair et individuel](https://www.canadianlawyermag.com/news/opinion/getting-it-right-using-consumer-facing-ai-tools- wisely/330244) auprès d'étudiants canadiens dont les données biométriques sont recueillies.
Le rapport considère également que la collecte et le contrôle de la conservation des données sont plus difficiles car bon nombre de ces entreprises technologiques sont basées aux États-Unis, ce qui pourrait les obliger à transférer des données aux États-Unis.
En ce qui concerne la reconnaissance faciale, il n'est plus surprenant que les outils d'intelligence artificielle contiennent un potentiel élevé de discrimination raciale, de genre et d'âge. Cependant, des facteurs socio-économiques provoquent également des alertes logicielles injustifiées.
Par exemple, le rapport a révélé que la technologie peut signaler un seul aboiement ou gazouillis d'un animal bruyant comme un incident potentiel de tricherie lors d'un examen en ligne. D'autres variables audiovisuelles telles que vivre avec des enfants, résider dans un ménage multigénérationnel, être dans une zone rurale et le manque d'accès à un équipement approprié peuvent également aggraver le potentiel de discrimination.
"Les étudiants peuvent être placés dans une position inéquitable pour des raisons socio-économiques", [le rapport lit](https://www.priv.gc.ca/en/opc-actions-and-decisions/research/funding-for-privacy- recherche-et-application-des-connaissances/projets-de-programme-de-contributions-acheves/2021-2022/p_2021-22_4/). "Ces nouveaux facteurs de discrimination sont souvent complètement absents de la discussion sur la discrimination par l'IA. Par conséquent, l'utilisation d'un logiciel de surveillance basé sur l'IA est un scénario particulièrement important et distinctif que les réglementations doivent prendre en compte."
Compte tenu de ces divers facteurs, le rapport conclut que "le potentiel de préjudice n'est pas négligeable". En particulier, les étudiants intersectionnels pourraient être soumis à un "[risque extrême de discrimination](https://www.canadianlawyermag.com/news/general/report-says-use-of-ai-could-be-violating-human- rights/275501) par un logiciel de surveillance en ligne."