Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4299

Incidentes Asociados

Incidente 8432 Reportes
Generative AI Plagiarism Incident at Hingham High School Reportedly Tied to Inaccurate Citation Outputs from Grammarly AI

Loading...
Tribunal dictamina que escuela no hizo nada malo al castigar a estudiante por usar IA
arstechnica.com · 2024

Un tribunal federal falló ayer en contra de los padres que demandaron a un distrito escolar de Massachusetts por castigar a su hijo que utilizó una herramienta de inteligencia artificial para completar una tarea.

Dale y Jennifer Harris demandaron a los funcionarios de la escuela secundaria Hingham y al Comité Escolar y solicitaron una orden preliminar que exigiera a la escuela cambiar la calificación de su hijo y eliminar el incidente de su registro disciplinario antes de que deba presentar solicitudes de ingreso a la universidad. Los padres argumentaron que no había ninguna regla contra el uso de IA en el manual del estudiante, pero los funcionarios escolares dijeron que el estudiante violó múltiples políticas.

La moción de orden judicial de Harris fue rechazada en una orden emitida ayer por el Tribunal de Distrito de los EE. UU. para el Distrito de Massachusetts. El magistrado federal Paul Levenson determinó que los funcionarios escolares "tienen la mejor parte en el argumento, tanto en los hechos como en la ley".

"En cuanto a los hechos, no hay nada en el expediente fáctico preliminar que sugiera que los funcionarios del HHS se apresuraron a concluir que RNH [el hijo de Harris, al que se hace referencia por sus iniciales] había hecho trampa", escribió Levenson. "Las consecuencias que impusieron los demandados tampoco fueron tan severas como para exceder la considerable discreción de los demandados en tales asuntos".

"En base a la evidencia que se encuentra actualmente ante el Tribunal, no detecto ninguna irregularidad por parte de los demandados", escribió también Levenson.

Los estudiantes copiaron y pegaron "alucinaciones" de IA

El incidente ocurrió en diciembre de 2023 cuando RNH era estudiante de tercer año. La escuela determinó que RNH y otro estudiante "habían hecho trampa en un proyecto de Historia de EE. UU. de AP al intentar hacer pasar como su propio trabajo material que habían tomado de una aplicación de inteligencia artificial generativa ("IA")", escribió Levenson. "Aunque a los estudiantes se les permitió usar IA para intercambiar ideas sobre temas e identificar fuentes, en este caso los estudiantes habían copiado y pegado indiscriminadamente texto de la aplicación de IA, incluidas citas de libros inexistentes (es decir, alucinaciones de IA)".

Recibieron calificaciones reprobatorias en dos partes del proyecto de varias partes, pero "se les permitió comenzar desde cero, cada uno trabajando por separado, para completar y enviar el proyecto final", decía la orden. La disciplina de RNH incluyó una detención el sábado. También se le prohibió la selección para la Sociedad Nacional de Honor, pero finalmente se le permitió ingresar al grupo después de que sus padres presentaran la demanda.

Los funcionarios escolares "señalan que a RNH se le enseñaron repetidamente los fundamentos de la integridad académica, incluido cómo usar y citar la IA", escribió Levenson. El magistrado estuvo de acuerdo en que "los funcionarios escolares podían concluir razonablemente que el uso de la IA por parte de RNH violaba las reglas de integridad académica de la escuela y que cualquier estudiante en la posición de RNH lo habría entendido".

La orden de Levenson describió cómo los estudiantes usaron la IA para generar un guion para un documental:

La evidencia refleja que la pareja no usó simplemente la IA para ayudar a formular temas de investigación o identificar fuentes para revisar. En cambio, parece que copiaron y pegaron indiscriminadamente texto que había sido generado por Grammarly.com ("Grammarly"), una herramienta de IA disponible públicamente, en su borrador de guion. Evidentemente, la pareja ni siquiera revisó las "fuentes" que proporcionó Grammarly antes de tomarlas. La primera nota a pie de página en la presentación consiste en una cita a un libro inexistente: "Lee, Robert. Hoop Dreams: A Century of Basketball. Los Ángeles: Courtside Publications, 2018". La tercera nota a pie de página también parece totalmente ficticia: "Doe, Jane. Pioneros musulmanes: el viaje espiritual de los íconos estadounidenses. Chicago: Windy City Publishers, 2017". Es significativo que, aunque el guión contenía citas de varias fuentes (algunas de las cuales eran reales), no se citaba a Grammarly ni se reconocía que se hubiera utilizado algún tipo de inteligencia artificial.

La herramienta marcó el trabajo como generado por inteligencia artificial

Cuando los estudiantes enviaron su guión a través de Turnitin.com, el sitio web marcó partes del mismo como generadas por inteligencia artificial. La profesora de Historia de EE. UU. de AP realizó un examen más detallado y descubrió que se habían copiado y pegado grandes porciones del guión. También encontró otros detalles condenatorios.

La profesora de historia Susan Petrie "testificó que el historial de revisión mostraba que RNH sólo había dedicado aproximadamente 52 minutos al documento, mientras que otros estudiantes dedicaron entre siete y nueve horas. La Sra. Petrie también pasó el documento por 'Draft Back' y 'Chat Zero', dos herramientas adicionales de detección de IA, que también indicaron que se había utilizado IA para generar el documento", decía la orden.

Los funcionarios de la escuela argumentaron que el "caso no implicaba cuestiones sutiles de prácticas aceptables en la implementación de una nueva tecnología, sino que era un caso claro de deshonestidad académica", escribió Levenson. La orden del magistrado decía que "es dudoso que el Tribunal tenga algún papel en cuestionar" la determinación de la escuela, y que los demandantes de RNH no demostraron ninguna mala conducta por parte de las autoridades escolares.

Como informamos anteriormente, los funcionarios escolares le dijeron al tribunal que la sección del manual del estudiante sobre trampas y plagio prohíbe "el uso no autorizado de tecnología durante una tarea" y "el uso no autorizado o la imitación cercana del lenguaje y los pensamientos de otro autor y la representación de ellos como el trabajo propio".

Los funcionarios escolares también le dijeron al tribunal que en el otoño de 2023, los estudiantes recibieron una copia de una "política escrita sobre deshonestidad académica y expectativas de IA" que decía que los estudiantes "no deben usar herramientas de IA durante exámenes en clase, tareas escritas procesadas, tareas o trabajos de clase a menos que se les permita e instruya explícitamente".

El caso de los padres depende en gran medida de la falta de una declaración específica sobre IA en el manual del estudiante, a pesar de que ese mismo manual prohíbe el uso no autorizado de tecnología. "Nos dijeron que nuestro hijo hizo trampa en un trabajo, que no es lo que sucedió", dijo Jennifer Harris a WCVB el mes pasado. "Básicamente, lo castigaron por una regla que no existe".

Se rechazan otras reclamaciones de los padres

Los Harris también afirman que los funcionarios escolares participaron en un "patrón generalizado de amenazas, intimidación, coerción, acoso, hostigamiento e insinuación de represalias". Pero Levenson concluyó que los "demandantes aportan pocos argumentos fácticos en este sentido".

Si bien el caso no ha terminado, el rechazo de la orden preliminar demuestra que Levenson cree que es probable que los acusados ganen. "La forma en que RNH utilizó Grammarly (copiando y pegando el lenguaje directamente en el borrador del guión que presentó) respalda de manera contundente la conclusión de los acusados de que RNH sabía que estaba utilizando la inteligencia artificial de una manera inadmisible", escribió Levenson.

Si bien "la aparición de la IA generativa puede presentar algunos desafíos matizados para los educadores, la cuestión aquí no es particularmente matizada, ya que no hay un propósito pedagógico discernible en incitar a Grammarly (o cualquier otra herramienta de IA) a generar un guión, regurgitar el resultado sin citarlo y reclamarlo como trabajo propio", decía la orden.

Levenson no quedó impresionado por la afirmación de los padres de que se había violado el derecho constitucional de RNH al debido proceso. Los acusados "tomaron múltiples medidas para confirmar que RNH había usado de hecho IA para completar la tarea" antes de imponer un castigo, escribió. La disciplina impuesta "no privó a RNH de su derecho a una educación pública" y, por lo tanto, "cualquier reclamación sustancial de debido proceso basada en el derecho de RNH a una educación pública debe ser rechazada".

Levenson concluyó con una cita de un fallo de la Corte Suprema de 1988 que decía que la educación de los jóvenes "es principalmente responsabilidad de los padres, maestros y funcionarios escolares estatales y locales, y no de los jueces federales". Según Levenson, "este caso ilustra bien el buen sentido de esa división del trabajo. El interés público aquí pesa a favor de los acusados".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd