Incidents associés
Quelques semaines après le lancement du chatbot IA ChatGPT, Darren Hick, un professeur de philosophie à l'Université Furman, a déclaré avoir surpris un étudiant en train de rédiger un [essai généré par l'IA] (https://www.businessinsider.com/professors-say-chatgpt-wont-kill-college-essays-make-education- plus juste-2022-12).
Hick a déclaré qu'il était devenu méfiant lorsque l'étudiant a rendu un essai sur le sujet qui comprenait des informations erronées bien écrites.
Après l'avoir passé à travers le détecteur ChatGPT d'Open AI, les résultats ont indiqué qu'il était probable à 99 % que l'essai ait été généré par l'IA.
Antony Aumann, professeur d'études religieuses et de philosophie à la Northern Michigan University, a déclaré à Insider qu'il avait surpris deux étudiants en train de soumettre des essais écrits par [ChatGPT](https://www.businessinsider.com/chatgpt-job-applications-hiring-managers-job -candidat-entretien-2022-12).
Après que le style d'écriture ait déclenché la sonnette d'alarme, Aumann les a renvoyées au chatbot en demandant quelle était la probabilité qu'elles aient été écrites par le programme. Lorsque le chatbot a déclaré qu'il était sûr à 99 % que les essais avaient été rédigés par ChatGPT, il a transmis les résultats aux étudiants.
Hick et Aumann ont tous deux déclaré avoir confronté leurs étudiants, qui ont tous finalement avoué l'infraction. L'élève de Hick a échoué en classe et Aumann a demandé à ses élèves de réécrire les essais à partir de zéro.
"C'était vraiment mal écrit"
Il y avait certains drapeaux rouges dans les essais qui ont alerté les professeurs sur l'utilisation de l'IA. Hick a déclaré que l'essai qu'il avait trouvé faisait référence à plusieurs faits non mentionnés en classe et avait fait une affirmation absurde.
"Mot à mot, c'était un essai bien écrit", a-t-il dit, mais en y regardant de plus près, une affirmation sur le philosophe prolifique, David Hume "n'avait aucun sens" et était "tout simplement fausse".
"Une erreur vraiment bien écrite était le plus gros drapeau rouge", a-t-il déclaré.
Pour Aumann, le chatbot écrivait juste trop parfaitement. "Je pense que le chat écrit mieux que 95 % de mes étudiants ne le pourraient jamais", a-t-il déclaré.
"Tout à coup, vous avez quelqu'un qui ne démontre pas la capacité de penser ou d'écrire à ce niveau, écrivant quelque chose qui respecte parfaitement toutes les exigences avec une grammaire sophistiquée et des pensées compliquées qui sont directement liées à l'invite de l'essai", a-t-il déclaré. .
Christopher Bartel, professeur de philosophie à l'Appalachian State University, a déclaré que si la grammaire des essais générés par l'IA est presque parfaite, la substance a tendance à manquer de détails.
Il a dit: "Ils sont vraiment moelleux. Il n'y a pas de contexte, il n'y a pas de profondeur ou de perspicacité."
Plagiat difficile à prouver
Si les étudiants n'avouent pas utiliser l'IA pour les essais, cela peut laisser les universitaires dans une situation difficile.
Bartel a déclaré que les règles de certaines institutions n'ont pas évolué pour lutter contre ce type de tricherie. Si un étudiant décide de s'entêter et de nier l'utilisation de l'IA, cela peut être difficile à prouver.
Bartel a déclaré que les détecteurs d'IA proposés étaient "bons mais pas parfaits".
"Ils donnent une analyse statistique de la probabilité que le texte soit généré par l'IA, ce qui nous place dans une position difficile si nos politiques sont conçues de manière à ce que nous ayons une preuve définitive et démontrable que l'essai est un faux", a-t-il déclaré. a dit. "S'il revient avec une probabilité de 95 % que l'essai soit généré par l'IA, il y a encore 5 % de chances que ce ne soit pas le cas."
Dans le cas de Hick, bien que le site de détection ait déclaré qu'il était "certain à 99%" que l'essai avait été généré par une IA, il a déclaré que cela ne lui suffisait pas sans confession.
"Les aveux étaient importants car tout le reste ressemble à des preuves indirectes", a-t-il déclaré. "Avec le contenu généré par l'IA, il n'y a pas de preuves matérielles, et les preuves matérielles ont beaucoup plus de poids que les preuves circonstancielles."
Aumann a déclaré que même s'il pensait que l'analyse par le chatbot serait une preuve suffisante pour une action disciplinaire, le plagiat de l'IA était toujours un nouveau défi pour les collèges.
Il a déclaré: "Contrairement aux anciens cas de plagiat où vous pouvez simplement dire:" Hé, voici le paragraphe de Wikipedia. Il n'y a aucune preuve de renversement que vous pouvez fournir autre que le chat dit que c'est la probabilité statistique."