Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2689

Incidents associés

Incident 4667 Rapports
AI-Generated-Text-Detection Tools Reported for High Error Rates

Loading...
OpenAI ne peut pas détecter son propre texte généré par ChatGPT la plupart du temps
vice.com · 2023

En réponse à l'inquiétude croissante des éducateurs concernant la capacité de ChatGPT à aider les étudiants à tricher, OpenAI a publié mardi un outil capable de détecter le texte écrit par l'IA. Cependant, la société a déclaré: "Notre classificateur n'est pas entièrement fiable."

"Dans nos évaluations sur un" ensemble de défis "de textes anglais, notre classificateur identifie correctement 26% du texte écrit par l'IA (vrais positifs) comme" probablement écrit par l'IA ", tout en étiquetant incorrectement le texte écrit par l'homme comme écrit par l'IA 9% de l'époque (faux positifs) », la société, qui a développé ChatGPT, a écrit dans un article de blog.

Le classificateur, qui a été formé sur un ensemble de données de texte écrit par l'homme et par l'IA sur le même sujet, n'est pas encore fiable et n'est censé que compléter d'autres moyens de déterminer par qui un texte est écrit. Les limites du classificateur, selon OpenAI, incluent le fait qu'il n'est pas fiable sur des textes courts et qu'il fonctionne moins bien dans d'autres langues.

OpenAI a déclaré avoir développé des ressources préliminaires sur l'impact de ChatGPT pour les éducateurs, reconnaissant qu'il est important de reconnaître "les limites et les impacts des classificateurs de texte générés par l'IA dans la salle de classe".

Récemment, les professeurs de la NYU ont dit aux étudiants le premier jour des cours que ils n'étaient pas autorisés à utiliser ChatGPT sans autorisation explicite, affirmant que toute utilisation de l'outil serait considérée comme du plagiat. Les professeurs ont trouvé leurs propres moyens de détecter l'écriture par l'IA afin d'empêcher toute sorte de tricherie, comme l'exécution de leurs invites d'essai via ChatGPT pour avoir une référence de ce à quoi ressemblerait un essai généré par l'IA.

Un étudiant de 22 ans nommé Edward Tian a développé son propre détecteur ChatGPT, qui a été lancé en version bêta plus tôt cette année et publié dans son intégralité sous GPTZeroX le 29 janvier. Dans cette application, vous pouvez insérer du texte ou télécharger un ou plusieurs documents à la fois et l'application générera un score pour la quantité de texte écrite par l'IA et mettra en évidence les phrases qui ont été écrites par l'IA. Selon Tian, l'application s'est trompée moins de 2% du temps lorsqu'elle a été testée sur un ensemble de données d'articles de presse de la BBC et d'articles générés par la machine avec la même invite, ce qui rendrait GPTZeroX apparemment plus fiable que le propre détecteur d'OpenAI.

OpenAI inclut un appel à l'action dans son article de blog, offrant aux personnes directement touchées par le bot linguistique, "y compris, mais sans s'y limiter, les enseignants, les administrateurs, les parents, les étudiants et les prestataires de services éducatifs", de fournir des commentaires via un formulaire Google enquête. Alors que ChatGPT devient capable de tout écrire, des essais universitaires au code, les enseignants du pays tentent d'adapter leurs salles de classe autour la nouvelle technologie et discuter de la façon dont l'outil peut être utilisé de manière éthique.

"Nous ne sommes pas nous-mêmes des éducateurs - nous en sommes très conscients - et nos objectifs sont donc vraiment d'aider les enseignants à déployer efficacement ces modèles dans et hors de la salle de classe", a déclaré le directeur de la recherche sur les politiques Open AI [Lana Ahmad a déclaré à CNN]. (https://www.cnn.com/2023/01/31/tech/chatgpt-check-tool/index.html). "Cela signifie leur donner le langage pour en parler, les aider à comprendre les capacités et les limites, puis, en second lieu, à travers elles, équiper les étudiants pour naviguer dans les complexités que l'IA introduit déjà dans le monde."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd