Incidentes Asociados
En febrero, Ella Stapleton, entonces estudiante de último año en la Universidad Northeastern, estaba revisando los apuntes de su clase de comportamiento organizacional cuando notó algo extraño. ¿Era una consulta de su profesor a ChatGPT?
A mitad del documento, que su profesor de negocios había preparado para una clase sobre modelos de liderazgo, había una instrucción a ChatGPT: "Ampliar todas las áreas. Ser más detallado y específico". Le seguía una lista de rasgos de liderazgo positivos y negativos, cada uno con una definición prosaica y un ejemplo con viñetas.
La Sra. Stapleton le envió un mensaje a una amiga de la clase:
"¿Viste los apuntes que puso en Canvas?", escribió, refiriéndose a la plataforma de software de la universidad para alojar materiales del curso. "Los hizo con ChatGPT".
"¡Dios mío! ¡Para!", respondió la compañera. "¿Qué demonios?".
La Sra. Stapleton decidió investigar un poco. Revisó las presentaciones de su profesor y descubrió otras señales reveladoras de IA: texto distorsionado, fotos de oficinistas con partes del cuerpo extrañas y errores ortográficos flagrantes.
No estaba contenta. Dado el costo y la reputación de la escuela, esperaba una educación de primer nivel. Este curso era obligatorio para su especialización en negocios; su programa de estudios prohibía las "actividades académicamente deshonestas", incluyendo el uso no autorizado de inteligencia artificial o chatbots.
"Nos dice que no lo usemos, y luego lo usa él mismo", dijo.
La Sra. Stapleton presentó una queja formal ante la escuela de negocios de Northeastern, alegando el uso no revelado de IA, así como otros problemas que tenía con su estilo de enseñanza, y solicitó el reembolso de la matrícula de esa clase. Como una cuarta parte de la factura total del semestre, eso ascendería a más de $8,000.
Cuando ChatGPT se lanzó a finales de 2022, causó pánico en todos los niveles educativos, ya que facilitaba enormemente las trampas. Los estudiantes que debían escribir un trabajo de historia o un análisis literario podían hacerlo en cuestión de segundos. Algunas universidades lo prohibieron, mientras que otras implementaron servicios de detección de IA, a pesar de las preocupaciones sobre su precisión. Pero, ¡cómo han cambiado las tornas! Ahora, los estudiantes se quejan en sitios como Rate My Professors de la excesiva dependencia de sus instructores de la IA y de que examinan minuciosamente los materiales del curso en busca de palabras que ChatGPT suele usar en exceso, como "crucial" y "profundizar". Además de denunciar la hipocresía, presentan un argumento económico: pagan, a menudo bastante, para que les enseñen humanos, no un algoritmo que ellos también podrían consultar gratis.
Por su parte, los profesores afirmaron utilizar chatbots de IA como herramienta para ofrecer una mejor educación. Los instructores entrevistados por The New York Times afirmaron que los chatbots les ahorraban tiempo, les ayudaban con cargas de trabajo abrumadoras y les servían como asistentes de enseñanza automatizados.
Sus cifras están creciendo. En una encuesta nacional realizada el año pasado a más de 1800 instructores de educación superior, el 18 % se describió como usuario frecuente de herramientas de IA generativa. En una encuesta repetida este año, ese porcentaje casi se duplicó, según Tyton Partners, la consultora que realizó la investigación. La industria de la IA quiere ayudar y obtener beneficios: las startups OpenAI y Anthropic crearon recientemente versiones empresariales de sus chatbots diseñados para universidades.
(The Times ha demandado a OpenAI por infracción de derechos de autor por el uso de contenido informativo sin permiso).
La IA generativa ha llegado para quedarse, pero las universidades tienen dificultades para adaptarse a las normas cambiantes. Ahora son los profesores quienes están en la curva de aprendizaje y, al igual que la profesora de la Sra. Stapleton, se las arreglan para sortear las dificultades de la tecnología y el desdén de sus alumnos.
Obteniendo la Calificación
El otoño pasado, Marie, de 22 años, escribió un ensayo de tres páginas para un curso en línea de antropología en la Universidad Southern New Hampshire. Buscó su calificación en la plataforma en línea de la universidad y se alegró de haber obtenido una A. Pero en una sección de comentarios, su profesor publicó accidentalmente un intercambio con ChatGPT. Incluía la rúbrica de calificación que el profesor le había pedido al chatbot que usara y una solicitud de "retroalimentación muy amable" para Marie.
"Desde mi punto de vista, el profesor ni siquiera leyó nada de lo que escribí*", dijo Marie, quien pidió usar su segundo nombre y solicitó que no se revelara la identidad de su profesor. Podía entender la tentación de usar IA. Trabajar en la escuela era un "tercer trabajo" para muchos de sus profesores, quienes podían tener cientos de estudiantes, comentó Marie, y no quería avergonzar a su maestra.
Aun así, Marie se sintió agraviada y confrontó a su profesor durante una reunión de Zoom. El profesor le dijo a Marie que sí leía los ensayos de sus estudiantes, pero que usaba ChatGPT como guía, algo que la escuela permitía.
Robert MacAuslan, vicepresidente de IA en Southern New Hampshire, afirmó que la escuela creía "en el poder de la IA para transformar la educación" y que existían directrices tanto para el profesorado como para el alumnado para "garantizar que esta tecnología potencie, en lugar de reemplazar, la creatividad y la supervisión humanas". Un sí y no para el profesorado prohíbe el uso de herramientas como ChatGPT y Grammarly "en lugar de una retroalimentación auténtica y centrada en el ser humano".
"Estas herramientas nunca deberían utilizarse para 'hacer el trabajo' por ellos", afirmó el Dr. MacAuslan. "Más bien, pueden considerarse mejoras a sus procesos ya establecidos".
Después de que un segundo profesor pareciera usar ChatGPT para darle retroalimentación, Marie se transfirió a otra universidad.
Paul Shovlin, profesor de inglés en la Universidad de Ohio en Athens, Ohio, dijo que comprendía su frustración. "No me entusiasma mucho", dijo el Dr. Shovlin tras conocer la experiencia de Marie. El Dr. Shovlin también es [ingeniero de IA]. Profesor asociado] (https://www.ohio.edu/center-teaching-learning/teaching-learning-genai), cuya función incluye desarrollar las maneras correctas de incorporar la IA en la enseñanza y el aprendizaje.
"El valor que aportamos como instructores reside en la retroalimentación que brindamos a los estudiantes", afirmó*. "Son las conexiones humanas que forjamos con los estudiantes como seres humanos que leen sus palabras y se ven impactados por ellas".
El Dr. Shovlin defiende la incorporación de la IA en la enseñanza, pero no solo para facilitarle la vida al instructor. Los estudiantes deben aprender a usar la tecnología de forma responsable y "desarrollar una brújula ética con la IA", afirmó, ya que es casi seguro que la usarán en el ámbito laboral. No hacerlo correctamente podría tener consecuencias. "Si te equivocas, te despedirán", concluyó el Dr. Shovlin.
Un ejemplo que usa en sus propias clases: En 2023, funcionarios de la facultad de educación de la Universidad de Vanderbilt respondieron a un tiroteo masivo en otra universidad enviando un correo electrónico a los estudiantes pidiendo cohesión comunitaria. El mensaje, que describía la promoción de una "cultura del cuidado" mediante la "construcción de relaciones sólidas", incluía una frase al final que revelaba que se había utilizado ChatGPT para redactarlo. Tras las críticas de los estudiantes por la externalización de la empatía a una máquina, los funcionarios involucrados renunciaron temporalmente.
No todas las situaciones son tan claras. El Dr. Shovlin afirmó que era complicado establecer reglas, ya que el uso razonable de la IA puede variar según el sujeto. El Centro de Enseñanza, Aprendizaje y Evaluación, donde es investigador, cuenta con "principios" para la integración de IA, uno de los cuales evita un enfoque universal.
The Times contactó a decenas de profesores cuyos estudiantes habían mencionado el uso de IA en reseñas en línea. Los profesores afirmaron haber utilizado ChatGPT para crear tareas y exámenes de programación informática sobre lecturas obligatorias, incluso cuando los estudiantes se quejaban de que los resultados no siempre eran coherentes. Lo utilizaban para organizar la retroalimentación que les daban a los estudiantes o para que fuera más comprensiva. Como expertos en sus campos, comentaron, pueden reconocer cuándo alucina o se equivoca en los datos.
No hubo consenso sobre qué era aceptable. Algunos reconocieron usar ChatGPT para ayudar a calificar el trabajo de los estudiantes; otros criticaron la práctica. Algunos enfatizaron la importancia de la transparencia con los estudiantes al implementar IA generativa, mientras que otros dijeron que no revelaron su uso debido al escepticismo de los estudiantes sobre la tecnología.
La mayoría, sin embargo, consideró que la experiencia de la Sra. Stapleton en Northeastern, donde su profesor aparentemente usó IA para generar apuntes y diapositivas, fue perfectamente aceptable. Esa fue la opinión del Dr. Shovlin, siempre y cuando el profesor editara lo que ChatGPT generaba para reflejar su experiencia. El Dr. Shovlin lo comparó con una práctica tradicional en el ámbito académico de utilizar contenido, como planes de lecciones y casos prácticos, de editoriales externas.
Afirmar que un profesor es "una especie de monstruo" por usar IA para generar diapositivas "me parece ridículo", afirmó.
La calculadora con esteroides
Shingirai Christopher Kwaramba, profesor de negocios de la Universidad Commonwealth de Virginia, describió a ChatGPT como un socio que ahorra tiempo. Los planes de clase que antes tardaban días en desarrollarse ahora toman horas, comentó. Lo usa, por ejemplo, para generar conjuntos de datos para cadenas de tiendas ficticias, que los estudiantes usan en un ejercicio para comprender diversos conceptos estadísticos.
"Lo veo como la era de la calculadora con esteroides", dijo el Dr. Kwaramba.
El Dr. Kwaramba comentó que ahora tenía más tiempo para las horas de consulta con los estudiantes.
Otros profesores, como David Malan en Harvard, comentaron que el uso de IA significaba que menos estudiantes acudían a las horas de consulta para recibir ayuda con sus clases. El Dr. Malan, profesor de informática, ha integrado un chatbot de IA personalizado en una clase popular que imparte sobre los fundamentos de la programación informática. Cientos de sus estudiantes pueden recurrir a él para obtener ayuda con sus tareas de programación.
El Dr. Malan ha tenido que modificar el chatbot para perfeccionar su enfoque pedagógico, de modo que solo ofrezca orientación y no respuestas completas. La mayoría de los 500 estudiantes encuestados en 2023, el primer año en que se ofreció, afirmaron encontrarlo útil.
En lugar de dedicar tiempo a preguntas triviales sobre el material introductorio durante el horario de atención, él y sus asistentes de cátedra priorizan las interacciones con los estudiantes en almuerzos semanales y hackatones, "momentos y experiencias más memorables", según el Dr. Malan.
Katy Pearce, profesora de comunicación en la Universidad de Washington, desarrolló un chatbot de IA personalizado entrenándolo con versiones de tareas antiguas que ella misma había calificado. Ahora puede ofrecer a los estudiantes retroalimentación sobre sus escritos, similar a la suya, en cualquier momento, de día o de noche. Ha sido beneficioso para estudiantes que de otro modo dudaban en pedir ayuda, comentó.
"¿Llegará un momento en el futuro previsible en que gran parte del trabajo de los asistentes de cátedra de posgrado pueda ser realizado por IA?", preguntó. "Sí, por supuesto".
¿Qué sucederá entonces con la cantera de futuros profesores que surgirán de las filas de los asistentes de cátedra?
"Sin duda será un problema", afirmó la Dra. Pearce.
Un momento de aprendizaje
Tras presentar su queja en Northeastern, la Sra. Stapleton se reunió con varias autoridades de la escuela de negocios. En mayo, al día siguiente de su ceremonia de graduación, las autoridades le comunicaron que no le devolverían el dinero de la matrícula.
Rick Arrowood, su profesor, se mostró arrepentido por el incidente. El Dr. Arrowood, profesor adjunto con casi dos décadas de experiencia docente, comentó que había subido los archivos y documentos de su clase a ChatGPT, el motor de búsqueda de IA Perplexity y un generador de presentaciones de IA llamado Gamma para "darles una nueva perspectiva". A simple vista, comentó, las notas y presentaciones que habían generado se veían geniales.
"En retrospectiva, desearía haberlo examinado con más detenimiento", comentó.
Puso los materiales en línea para que los estudiantes los revisaran, pero enfatizó que no los usó en el aula, porque prefiere que las clases se centren en el debate. Se dio cuenta de los defectos de los materiales solo cuando las autoridades escolares le preguntaron sobre ellos.
La vergonzosa situación le hizo comprender, dijo, que los profesores deberían abordar la IA con más cautela e informar a los estudiantes cuándo y cómo se utiliza. Northeastern emitió una política formal sobre IA recientemente; Requiere atribución cuando se utilizan sistemas de IA y se revisa el resultado para garantizar su precisión e idoneidad. Una portavoz de Northeastern afirmó que la universidad "adopta el uso de la inteligencia artificial para mejorar todos los aspectos de su enseñanza, investigación y operaciones".
"Me dedico por completo a la docencia", afirmó la Dra. Arrowood. "Si mi experiencia puede ser un aprendizaje para la gente, entonces, bueno, me siento muy a gusto".