Incidentes Asociados
La Universidad de Vanderbilt está recibiendo críticas de su alumnado por usar ChatGPT para generar una carta de toda la comunidad que aborda el reciente tiroteo masivo en [Michigan State University](https://www.cbsnews.com/news/msu-shooting-victims-brian-fraser-alexandria-verner-arielle-anderson-michigan-state-university /).
La oficina de Equidad, Diversidad e Inclusión (EDI) de la Facultad de Educación Peabody de Vanderbilt emitió la semana pasada una declaración que muchos han criticado como impersonal y carente de empatía. .
“Los recientes tiroteos en Michigan son un trágico recordatorio de la importancia de cuidarse unos a otros, particularmente en el contexto de la creación de entornos inclusivos ”, decía la primera línea de la carta. "Como miembros de la comunidad del campus de Peabody, debemos reflexionar sobre el impacto de un evento de este tipo y tomar medidas para garantizar que estamos haciendo todo lo posible para crear un entorno seguro e inclusivo para todos".
Un párrafo más abajo comenzaba con una oración que pareció genérica a los miembros de la comunidad.
"Otro aspecto importante de la creación de un entorno inclusivo es promover una cultura de respeto y comprensión", decía la carta. "Esto significa valorar la diversidad de experiencias, perspectivas e identidades en nuestro campus y trabajar activamente para crear un espacio donde todos se sientan bienvenidos y apoyados".
El mensaje continuó promocionando los méritos de crear "un entorno seguro e inclusivo en el campus".
En letra pequeña, justo encima de la línea de la firma, apareció un descargo de responsabilidad que indicaba que la declaración completa era una "paráfrasis del modelo de lenguaje ChatGPT AI de OpenAI".
"Ironía enferma y retorcida"
Los estudiantes y miembros de la comunidad criticaron a la universidad por el paso en falso, acusando a los administradores de orquestar un truco de relaciones públicas.
Laith Kayat, estudiante de último año de Vanderbilt, cuya hermana asiste a MSU, calificó el uso de ChatGPT de "repugnante", el [periódico estudiantil] de Vanderbilt (https://vanderbilthustler.com/2023/02/17/peabody-edi-office-responds-to-msu -disparando-con-correo-escrito-usando-chatgpt/), informó Vanderbilt Hustler.
"Hay una ironía enfermiza y retorcida en hacer que una computadora escriba su mensaje sobre la comunidad y la unión porque no puede molestarse en reflexionar sobre ello", dijo Kayat a The Hustler. "[Administradores] solo se preocupan por la percepción y su política institucional de salvar las apariencias".
Kayat pidió a los administradores que hicieran algo mejor que confiar en un robot para dirigir la universidad.
Los administradores nunca revisaron la carta
El viernes, un día después de que se emitió la carta inicial, Nicole M. Joseph, decana asociada de EDI, envió un correo electrónico de seguimiento diciendo que su oficina había cometido un error de juicio al usar ChatGPT para reflexionar sobre el tiroteo de MSU.
"Al igual que con todas las nuevas tecnologías que afectan la educación superior, este momento nos brinda a todos la oportunidad de reflexionar sobre lo que sabemos y lo que aún debemos aprender sobre la IA", decía la carta de seguimiento de Joseph, según Vanderbilt Hustler.
La decana de Peabody College, Camilla Benbow, dijo que su oficina nunca revisó la controvertida misiva antes de distribuirla.
"El desarrollo y la distribución del correo electrónico inicial no siguieron los procesos normales de Peabody que prevén múltiples capas de revisión antes de enviarse", dijo en un comunicado a CBS MoneyWatch.
La oficina del decano está realizando una investigación sobre el incidente, según Benbow. Mientras tanto, el decano adjunto Joseph y la decana adjunta Hasina Mohyuddin estarán de licencia temporal, dijo.
“También estoy profundamente preocupada de que una comunicación de mi administración haya pasado por alto la necesidad crucial de conexión personal y empatía durante un momento de tragedia”, agregó en su declaración.
Falta de criterio
Hay escenarios en los que ChatGPT puede ser [muy eficaz en la redacción de comunicaciones](https://www.cbsnews.com/news/chatgpt-work-real-estate-finance-health-care-how-workers-use-it- trabajos/). Algunos directores ejecutivos han llegado a confiar en la herramienta para escribir discursos y actuar como un "socio de pensamiento". Hay debates en curso sobre los tipos de trabajos que la tecnología [eventualmente eliminará] (https://www.cbsnews.com/news/chatgpt-chatbot-artificial-intelligence-job-replacement/).
Pero por ahora, el software carece de una característica central que hace que los humanos sean únicos: el juicio.
ChatGPT puede resumir datos y generar texto, pero no posee la inteligencia emocional de los humanos, según el profesor de la Escuela de Negocios de Columbia, Oded Netzer. Comprender el "por qué" detrás de los hechos y las cifras y expresar emociones genuinas siguen siendo "los tipos de tareas que requieren juicio y en las que los humanos siguen siendo muy valiosos", dijo.