Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2388

Incidentes Asociados

Incidente 4244 Reportes
Universities' AI Proctoring Tools Allegedly Failed Canada's Legal Threshold for Consent

Loading...
El uso de datos biométricos de supervisión en línea no cumple con el umbral legal canadiense, según un informe
biometricupdate.com · 2022

Las herramientas de supervisión en línea para la realización de exámenes remotos no son suficientes para garantizar el consentimiento libre, claro e individual de los estudiantes canadienses cuyos datos biométricos recopilan, según un nuevo [informe] (https://chaireia.openum.ca/publications/logiciels -de-surveillance-dexamens-en-ligne-en-temps-de-pandemie-a-la-recherche-dune-minimisation-des-risques-datteinte-a-la-vie-privee-des-etudiants/) publicado por la Universidad de Ottawa y con el apoyo de la [Oficina del Comisionado de Privacidad de Canadá] (https://www.priv.gc.ca/en/opc-actions-and-decisions/research/funding-for-privacy-research- and-knowledge-translation/completed-contributions-program-projects/2021-2022/p_2021-22_4/).

Con el aprendizaje en persona interrumpido por la pandemia de COVID-19, muchas instituciones recurrieron a las plataformas de software como una forma de realizar los exámenes. Con frecuencia basadas en inteligencia artificial, herramientas como Respondus, Monitor, ProctorU, Examity y otras utilizan la minería de datos y el reconocimiento facial para monitorear las trampas y presentan lo que Céline Castets-Renard, la profesora de derecho que dirigió el proyecto, denominó “problemas legales de discriminación socioeconómica y privacidad”.

El informe apunta a familiar [problemas](https://www.biometricupdate.com/?posttype=all&s =policía+vigilancia+ai) con discriminación de IA, específicamente “la extralimitación del poder, como la vigilancia pública o la vigilancia policial que utiliza software de reconocimiento facial de IA, con un potencial de discriminación, como sesgos de raza, género y edad”. Pero también identifica el riesgo de ciertos factores socioeconómicos y situacionales que podrían desencadenar alertas de software injustificadas. Según el informe, “una mascota doméstica que hace ruido, como un ladrido o un chirrido, durante un examen de supervisión en línea ha sido identificada como una causa para señalar un posible incidente de trampa”. Las mascotas, los niños y otras variables audiovisuales pueden hacer que el software de vigilancia piense que algo sospechoso está pasando cuando no es así, un problema que se agrava en hogares grandes y multigeneracionales.

Las herramientas biométricas, como el reconocimiento facial, son susceptibles de errores similares. “El análisis biométrico de pulsaciones de teclas que sirve para rastrear los datos de las pulsaciones de teclas, el seguimiento ocular que monitorea y analiza los movimientos oculares, el monitoreo de audio que registra y monitorea a los estudiantes sónicamente y la detección facial son todos métodos utilizados por algunos programas de supervisión”, dice el informe de investigación. Y todos vienen con riesgos inaceptables de que la tecnología marque erróneamente ciertas variaciones en los datos como trampas.

El informe concluye con una serie de recomendaciones relativas a cómo se define y categoriza la IA, y cómo la supervisión humana de las tecnologías de vigilancia en evolución puede ayudar a mantener la transparencia y reducir el error y el sesgo. La recomendación final resume ordenadamente los hallazgos de los investigadores y pide "una reflexión colectiva sobre si prohibir ciertos usos de la IA y los medios para determinar cómo identificar dichos usos prohibidos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd