Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2388

Incidents associés

Incident 4244 Rapports
Universities' AI Proctoring Tools Allegedly Failed Canada's Legal Threshold for Consent

Loading...
L'utilisation de la biométrie de surveillance en ligne ne respecte pas le seuil légal canadien, selon un rapport
biometricupdate.com · 2022

Selon un nouveau [rapport](https://chaireia.openum.ca/publications/logiciels -de-surveillance-dexamens-en-ligne-en-temps-de-pandemie-a-la-recherche-dune-minimisation-des-risques-datteinte-a-la-vie-privee-des-etudiants/) publié par l'Université d'Ottawa et soutenu par le [Commissariat à la protection de la vie privée du Canada](https://www.priv.gc.ca/en/opc-actions-and-decisions/research/funding-for-privacy-research- and-knowledge-translation/completed-contributions-program-projects/2021-2022/p_2021-22_4/).

L'apprentissage en personne ayant été perturbé par la pandémie de COVID-19, de nombreux établissements se sont tournés vers des plateformes logicielles pour organiser des examens. Souvent basés sur l'intelligence artificielle, des outils tels que Respondus, Monitor, ProctorU, Examity et d'autres utilisent l'exploration de données et la reconnaissance faciale pour surveiller la tricherie - et présentent ce que Céline Castets-Renard, la professeure de droit qui a dirigé le projet, a appelé "les problèmes juridiques de discrimination socio-économique et respect de la vie privée.

Le rapport pointe vers familiar [issues](https://www.biometricupdate.com/?posttype=all&s = police + surveillance + ai) avec discrimination par l'IA, en particulier "l'excès de pouvoir tel que la surveillance publique ou la surveillance policière à l'aide d'un logiciel de reconnaissance faciale IA, avec un potentiel de discrimination, comme les préjugés de race, de sexe et d'âge". Mais il identifie également le risque de certains facteurs socio-économiques et situationnels qui pourraient déclencher des alertes logicielles injustifiées. Selon le rapport, "un animal domestique qui fait du bruit, comme un aboiement ou un gazouillis, lors d'un examen de surveillance en ligne a été identifié comme une cause de signalement d'un incident potentiel de tricherie". Les animaux domestiques, les enfants et d'autres variables audiovisuelles peuvent faire croire au logiciel de surveillance que quelque chose de suspect se passe alors que ce n'est pas le cas, un problème aggravé dans les grandes maisons multigénérationnelles.

Les outils biométriques, tels que la reconnaissance faciale, sont susceptibles d'erreurs similaires. "L'analyse biométrique de frappe qui sert à suivre les données de frappe, le suivi oculaire qui surveille et analyse les mouvements oculaires, la surveillance audio qui enregistre et surveille les étudiants par son et la détection faciale sont toutes des méthodes utilisées par certains logiciels de surveillance", indique le rapport de recherche. Et tous comportent des risques inacceptables que la technologie signale à tort certaines variations de données comme de la triche.

Le rapport se termine par une série de recommandations concernant la façon dont l'IA est définie et catégorisée, et comment la surveillance humaine des technologies de surveillance en évolution peut aider à maintenir la transparence et à réduire les erreurs et les biais. La recommandation finale résume soigneusement les conclusions des chercheurs, appelant à "une réflexion collective sur l'opportunité d'interdire certaines utilisations de l'IA, et les moyens de déterminer comment identifier ces utilisations interdites".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd