Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2539

Incidentes Asociados

Incidente 33914 Reportes
Open-Source Generative Models Abused by Students to Cheat on Assignments and Exams

Loading...
Dos profesores que dicen que atraparon a los estudiantes haciendo trampa en ensayos con ChatGPT explican por qué el plagio de IA puede ser difícil de probar
businessinsider.com · 2023

Unas semanas después del lanzamiento del chatbot de IA ChatGPT, Darren Hick, un profesor de filosofía en la Universidad de Furman, dijo que atrapó a un estudiante entregando un [ensayo generado por IA](https://www.businessinsider.com/professors-say-chatgpt-wont-kill-college-essays-make-education- más justo-2022-12).

Hick dijo que empezó a sospechar cuando el estudiante entregó un ensayo sobre el tema que incluía información errónea bien escrita.

Después de ejecutarlo a través del detector ChatGPT de Open AI, los resultados indicaron que era 99% probable que el ensayo hubiera sido generado por IA.

Antony Aumann, profesor de estudios religiosos y filosofía en la Universidad del Norte de Michigan, le dijo a Insider que había atrapado a dos estudiantes enviando ensayos escritos por [ChatGPT] (https://www.businessinsider.com/chatgpt-job-applications-hiring-managers-job -entrevista-candidato-2022-12).

Después de que el estilo de escritura hizo sonar las alarmas, Aumann los envió de nuevo al chatbot para preguntar qué tan probable era que fueran escritos por el programa. Cuando el chatbot dijo que estaba 99% seguro de que los ensayos fueron escritos por ChatGPT, envió los resultados a los estudiantes.

Tanto Hick como Aumann dijeron que confrontaron a sus estudiantes, quienes finalmente confesaron la infracción. El alumno de Hick reprobó la clase y Aumann hizo que sus alumnos reescribieran los ensayos desde cero.

"Estaba muy bien escrito mal"

Hubo ciertas señales de alerta en los ensayos que alertaron a los profesores sobre el uso de la IA. Hick dijo que el ensayo que encontró hacía referencia a varios hechos que no se mencionaron en clase e hizo una afirmación sin sentido.

"Palabra por palabra, fue un ensayo bien escrito", dijo, pero en una inspección más cercana, una afirmación sobre el prolífico filósofo David Hume "no tenía sentido" y estaba "totalmente equivocada".

"Error realmente bien escrito fue la bandera roja más grande", dijo.

Para Aumann, el chatbot simplemente escribió demasiado perfectamente. "Creo que el chat escribe mejor que el 95% de mis alumnos", dijo.

"De repente tienes a alguien que no demuestra la capacidad de pensar o escribir a ese nivel, escribiendo algo que cumple todos los requisitos a la perfección con una gramática sofisticada y pensamientos complicados que están directamente relacionados con el tema del ensayo", dijo. .

Christopher Bartel, profesor de filosofía en la Universidad Estatal de los Apalaches, dijo que si bien la gramática en los ensayos generados por IA es casi perfecta, la sustancia tiende a carecer de detalles.

Él dijo: "Son realmente esponjosos. No hay contexto, no hay profundidad ni perspicacia".

Plagio difícil de probar

Si los estudiantes no confiesan que usan IA para ensayos, puede dejar a los académicos en una situación difícil.

Bartel dijo que las reglas de algunas instituciones no han evolucionado para combatir este tipo de trampa. Si un estudiante decidió insistir y negar el uso de la IA, puede ser difícil de probar.

Bartel dijo que los detectores de IA que se ofrecían eran "buenos pero no perfectos".

"Ofrecen un análisis estadístico de la probabilidad de que el texto sea generado por IA, por lo que nos deja en una posición difícil si nuestras políticas están diseñadas para que tengamos pruebas definitivas y demostrables de que el ensayo es falso", dijo. dicho. "Si regresa con un 95 % de probabilidad de que el ensayo haya sido generado por IA, todavía hay un 5 % de probabilidad de que no lo haya sido".

En el caso de Hick, aunque el sitio de detección dijo que estaba "99% seguro" de que el ensayo había sido generado por una IA, dijo que no era suficiente para él sin una confesión.

"La confesión fue importante porque todo lo demás parece evidencia circunstancial", dijo. "Con el contenido generado por IA, no hay evidencia material, y la evidencia material tiene mucho más peso que la evidencia circunstancial".

Aumann dijo que aunque pensó que el análisis del chatbot sería prueba suficiente para tomar medidas disciplinarias, el plagio de la IA seguía siendo un nuevo desafío para las universidades.

Él dijo: “A diferencia de los casos de plagio de antaño, donde simplemente puedes decir, 'hey, aquí está el párrafo de Wikipedia'. No hay ninguna prueba de derribo que pueda proporcionar aparte de que el chat dice que esa es la probabilidad estadística".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd