Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2301

Loading...
Intel cree que su IA sabe lo que los estudiantes piensan y sienten en clase
protocol.com · 2022

Cuando la instructora universitaria Angela Dancey quiere descifrar si sus estudiantes de inglés de primer año comprenden lo que ella intenta transmitir en clase, sus expresiones faciales y lenguaje corporal no revelan mucho.

"Incluso en una clase presencial, los estudiantes pueden ser difíciles de leer. Por lo general, los estudiantes universitarios no se comunican mucho a través de sus rostros, especialmente por la falta de comprensión", dijo Dancey, profesor titular de la Universidad de Illinois Chicago.

Dancey utiliza métodos probados y verdaderos, como pedirles a los estudiantes que identifiquen su "punto más turbio", un concepto o idea con el que ella dijo que los estudiantes aún luchan, después de una conferencia o discusión. “Les pido que lo escriban, lo compartan y lo abordamos como una clase para el beneficio de todos”, dijo.

Pero Intel y Classroom Technologies, que vende un software de escuela virtual llamado Class, piensan que podría haber una mejor manera. Las empresas se han asociado para integrar una tecnología basada en IA desarrollada por Intel con Class, que se ejecuta sobre Zoom. Intel afirma que su sistema puede detectar si los estudiantes están aburridos, distraídos o confundidos al evaluar sus expresiones faciales y cómo interactúan con el contenido educativo.

“Podemos brindarle al maestro información adicional para permitirle comunicarse mejor”, dijo Michael Chasen, cofundador y director ejecutivo de Classroom Technologies, quien dijo que los maestros han tenido problemas para interactuar con los estudiantes en entornos de aulas virtuales durante la pandemia.

Su compañía planea probar la tecnología de análisis de participación de los estudiantes de Intel, que captura imágenes de los rostros de los estudiantes con una cámara de computadora y tecnología de visión por computadora y las combina con información contextual sobre en qué está trabajando un estudiante en ese momento para evaluar el estado de comprensión de un estudiante. La asociación de Intel con Class es una prueba de concepto de investigación, dijo Sinem Aslan, científico investigador de Intel, que ayudó a desarrollar la tecnología.

“Estamos tratando de habilitar la tutoría individual a escala”, dijo Aslan, y agregó que el sistema está destinado a ayudar a los maestros a reconocer cuándo los estudiantes necesitan ayuda y a informar cómo pueden modificar los materiales educativos en función de cómo interactúan los estudiantes con el educativo. contenido. “Altos niveles de aburrimiento llevarán a [los estudiantes] a alejarse completamente del contenido educativo”, dijo Aslan.

Pero los críticos argumentan que no es posible determinar con precisión si alguien se siente aburrido, confundido, feliz o triste en función de sus expresiones faciales u otras señales externas.

Algunos investigadores han descubierto que debido a que las personas se expresan a través de decenas o cientos de expresiones faciales sutiles y complejas, gestos corporales o señales fisiológicas, categorizar su estado con una [etiqueta única es un enfoque inadecuado] (https://ibug.doc. ic.ac.uk/media/uploads/documents/GunesPantic_IJSE_2010_camera.pdf). Otra investigación indica que las personas comunican emociones como la ira, el miedo y la sorpresa de maneras que varían entre culturas y situaciones, y la forma en que expresan las emociones puede fluctuar en un nivel individual.

“Los estudiantes tienen diferentes formas de presentar lo que sucede dentro de ellos”, dijo Todd Richmond, educador desde hace mucho tiempo y director del Laboratorio de Tecnología y Narrativa y profesor de la Escuela de Graduados Pardee RAND. “Ese estudiante distraído en ese momento puede ser el estado apropiado y necesario para ellos en ese momento de su vida”, dijo, si están lidiando con problemas personales, por ejemplo.

Emoción controvertida La IA se filtra en la tecnología cotidiana

El salón de clases es solo un escenario donde la controvertida "inteligencia artificial emocional" se abre camino en los productos tecnológicos cotidianos y genera interés en los inversores. También se filtra en [entrega] (https://www.protocol.com/enterprise/last-mile-delivery-data-commerce) y [vehículos de pasajeros] (https://www.protocol.com/enterprise/driver- monitoring-ai-infrastructure-bill) y ventas virtuales y software de atención al cliente. Después del informe de Protocol la semana pasada sobre el uso de esta tecnología en llamadas de ventas, Fight for the Future lanzó una campaña instando a Zoom a no para adoptar la tecnología en su casi omnipresente software de videoconferencia.

En esta etapa inicial, no está claro cómo se integrará la tecnología de Intel con el software Class, dijo Chasen, quien dijo que espera que la compañía se asocie con una de las universidades con las que ya trabaja para evaluar el sistema Intel. Chasen le dijo a Protocol que Classroom Technologies no está pagando a Intel para probar la tecnología. Class está respaldada por inversores, incluido el mariscal de campo de la NFL, Tom Brady, el cofundador de AOL, Steve Case, y Salesforce Ventures.

Intel ha establecido asociaciones para ayudar a distribuir otras formas incipientes de IA que ha creado. Por ejemplo, con la esperanza de producir un sistema que convierta los datos que visualizan las articulaciones y [los movimientos esqueléticos en análisis] (https://www.protocol.com/enterprise/baseball-intel-ai-athlete-biometric) para monitorear y mejorar atlético desempeño, la compañía se asoció con la Universidad de Purdue y la aplicación de exploración de fútbol AiScout.

Educadores y grupos de defensa han planteado alarmas sobre la vigilancia excesiva de los estudiantes y las invasiones de la privacidad asociadas con [el reconocimiento facial implementado en las escuelas] (https://buffalonews.com/news/local/education/state-launches-audit-of-lockport-schools-after-parent-complaint- over-security-system/article_41bc1644-7c2f-11eb-9ace-032b9e4a317f.html) con fines de identificación y seguridad. Esas preocupaciones se han acelerado a medida que el software basado en IA se ha utilizado con más frecuencia que nunca durante la pandemia, incluidas las tecnologías que monitorean el comportamiento de los estudiantes con la esperanza de prevenir [las trampas durante las pruebas virtuales] (https://www.eff.org/deeplinks/ 2021/06/long-overdue-reckoning-online-proctoring-companies-may-final-be-here) y sistemas que rastrean el contenido que los estudiantes ven en sus computadoras portátiles en un esfuerzo por detectar si corren el riesgo de autolesionarse .

Class ya realiza un seguimiento de la frecuencia con la que los estudiantes levantan la mano durante una sesión y ofrece una función de "vista de supervisor" que permite a los maestros monitorear lo que los estudiantes ven en sus computadoras si aceptan compartir la pantalla de su escritorio con los instructores.

“Creo que tenemos que ser muy sensibles con los derechos personales de las personas y no ser demasiado intrusivos con estos sistemas”, dijo Chasen.

Las cámaras como un problema de justicia social

A medida que la clase virtual se convirtió en la norma en los últimos dos años, surgió un debate entre los educadores sobre si exigir o no a los estudiantes que enciendan sus cámaras durante la clase. Actualmente, en el programa de inglés de Dancey, las cámaras son opcionales, en parte porque en entornos virtuales, los estudiantes pueden comunicarse con los instructores a través de sus micrófonos o por chat.

Pero para capturar las expresiones faciales de los estudiantes, la tecnología de Intel necesitaría que esas cámaras estuvieran encendidas.

“Lo de encender las cámaras se convirtió casi en un problema de justicia social”, dijo Dancey. A algunos estudiantes no solo les preocupa que otros vean dónde o cómo viven, sino que habilitar las cámaras consume energía, lo que puede ser un problema para los estudiantes que usan un punto de acceso móvil para conectarse a clase, dijo.

“Es una especie de invasión de la privacidad y hay problemas de accesibilidad, porque tener la cámara encendida consume una gran cantidad de ancho de banda. Literalmente, eso podría costarles dinero”, dijo Dancey.

No queremos que esta tecnología sea un sistema de vigilancia.

“Los estudiantes no deberían tener que vigilar cómo se ven en el salón de clases”, dijo Nandita Sampath, analista de políticas de Consumer Reports enfocada en el sesgo algorítmico y los problemas de responsabilidad, quien dijo que se preguntaba si los estudiantes tendrían la capacidad de impugnar resultados inexactos si Intel sistema conduce a consecuencias negativas. “¿Qué estados cognitivos y emocionales afirman estas empresas que pueden evaluar o predecir, y cuál es la responsabilidad?” ella dijo.

Aslan dijo que el objetivo de la tecnología de Intel no es vigilar o penalizar a los estudiantes, sino capacitar a los maestros y brindar información adicional para que puedan comprender mejor cuándo los estudiantes necesitan ayuda. “No comenzamos esta tecnología como un sistema de vigilancia. De hecho, no queremos que esta tecnología sea un sistema de vigilancia”, dijo Aslan.

Sampath dijo que la tecnología de Intel podría usarse para juzgar o penalizar a los estudiantes, incluso si esa no es la intención. “Tal vez no tengan la intención de que este sea el máximo responsable de la toma de decisiones, pero esto no significa que el maestro o el administrador no puedan usarlo de esa manera”, dijo.

Dancey dijo que a los maestros también les preocupa que la vigilancia se use en su contra. “A menudo, la vigilancia se usa contra los instructores de manera realmente injusta”, dijo. “No creo que sea paranoico decir, especialmente si va a medir el 'compromiso de los estudiantes', TM, entre comillas, que si solicito un ascenso o una titularidad, ¿será eso parte de mi evaluación? ¿Podrían decir, ‘Fulano de tal tenía un cociente bajo de comprensión?’”

Cuando Intel probó el sistema en un salón de clases físico, algunos maestros que participaron en el estudio sugirieron que proporcionó información útil. “Pude presenciar cómo pude captar algunos desafíos emocionales de los estudiantes que no podría haber anticipado [antes]”, dijo un maestro, según un documento proporcionado por Intel.

Pero si bien algunos maestros pueden haberlo encontrado útil, Dancey dijo que no querría usar el sistema Intel. “Creo que la mayoría de los profesores, especialmente a nivel universitario, encontrarían esta tecnología moralmente reprobable, como el panóptico. Francamente, si mi institución me lo ofreciera, lo rechazaría, y si nos obligaran a usarlo, lo pensaría dos veces antes de seguir trabajando aquí”, dijo.

Preparación de datos de IA por psicólogos

Cuatro días después de la publicación de esta historia, Intel dijo que quería ofrecer una declaración adicional sobre su trabajo de IA emocional y su asociación con Classroom Technologies.

"La asociación de Intel para probar la tecnología en el software Class en esta etapa es una prueba de concepto de investigación. No tenemos planes a corto plazo para producir la tecnología y actualmente estamos colaborando con Class para realizar más investigaciones para identificar cualquier desafío sociotécnico o resultados para refinar e iterar esta prueba de concepto", dijo Mindy Nelson, representante de Intel, en un correo electrónico.

En esta etapa inicial, Intel tiene como objetivo encontrar las mejores formas de implementar la tecnología para que sea más útil para los maestros, dijo Aslan: “¿Cómo lo hacemos de manera que esté alineado con lo que hace el maestro a diario? ”

Creo que la mayoría de los profesores, especialmente a nivel universitario, encontrarían esta tecnología moralmente reprobable.

Intel desarrolló su sistema de análisis de aprendizaje adaptativo mediante la incorporación de datos recopilados de estudiantes en sesiones de clase de la vida real utilizando computadoras portátiles con cámaras 3D. Para etiquetar los datos reales utilizados para entrenar sus modelos algorítmicos, los investigadores contrataron a psicólogos que vieron videos de los estudiantes y categorizaron las emociones que detectaron en sus expresiones.

“No queremos comenzar con ninguna suposición. Es por eso que contratamos a expertos en la materia para etiquetar los datos”, dijo Nese Alyuz Civitci, investigadora de aprendizaje automático de Intel. Los investigadores solo usaron datos cuando al menos dos de los tres etiquetadores acordaron cómo se deben categorizar las expresiones de un estudiante.

“Fue realmente interesante ver esas emociones: los estados son realmente sutiles, son diferencias realmente pequeñas”, dijo Civitci. “Fue muy difícil para mí identificar esas diferencias”.

En lugar de evaluar los modelos de inteligencia artificial de Intel para determinar si reflejaban con precisión las emociones reales de los estudiantes, los investigadores "lo posicionaron como cuán instrumental o cuánto un maestro puede confiar en los modelos", dijo Aslan.

“No creo que la tecnología haya alcanzado todavía su madurez”, dijo Chasen sobre el sistema de Intel. “Necesitamos ver si los resultados son relevantes para el desempeño de los estudiantes y ver si podemos obtener datos útiles para los instructores. Esto es lo que estamos probando para averiguarlo”.

En última instancia, dijo que el sistema Intel proporcionará una pieza de datos que Classroom Technologies y sus clientes combinarán con otras señales para formar una evaluación holística de los estudiantes.

“Nunca hay una sola pieza de datos”, dijo. También sugirió que la información revelada por la tecnología Intel no debe usarse por sí sola sin contexto para juzgar el desempeño de un estudiante, como "si la IA dice que no están prestando atención y tienen todas las calificaciones".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd