Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2586

Incidents associés

Incident 4133 Rapports
Thousands of Incorrect ChatGPT-Produced Answers Posted on Stack Overflow

Incident 4645 Rapports
ChatGPT Provided Non-Existent Citations and Links when Prompted by Users

Loading...
Pourquoi tout le monde bashing ChatGPT ?
analyticsindiamag.com · 2022

Suppositions infondées, mauvais conseils, informations incorrectes - la plus grande source de problèmes sur Internet aujourd'hui, ce sont les gens qui adhèrent aveuglément au battage médiatique. ChatGPT, qui a récemment pris d'assaut Internet, semble permettre aux utilisateurs d'ajouter plus facilement au chaos.

À l'heure actuelle, ChatGPT est synonyme de réponses exhaustives de type humain aux questions, y compris comment rédiger un contrat, créer un code ou même un scénario de film. Le chatbot temporairement gratuit change déjà la façon dont les gens recherchent des informations en répondant à des questions complexes. Parfois, les capacités de compréhension de ChatGPT vous font deviner si vous parlez réellement à un humain.

Alors, pourquoi les gens critiquent-ils ChatGPT ? Mais avant cela, examinons certains des aspects positifs de ce chatbot révolutionnaire.

La principale parmi les caractéristiques uniques de ChatGPT est memory. Le bot peut se souvenir de ce qui a été dit plus tôt dans la conversation et le raconter à l'utilisateur. Cela en soi le distingue des autres solutions de langage naturel concurrentes, qui résolvent toujours la mémoire au fur et à mesure qu'elles progressent requête par requête.

Bien qu'il surmonte certains des problèmes qui affligeaient les anciens chatbots, notamment les réponses haineuses ou racistes, il soulève également des questions sur la manière dont l'utilisateur peut faire la différence entre le contenu du bot et l'intervention humaine par le langage. En effet, le texte de ChatGPT est capable de donner l'impression d'une réponse véridique même s'il n'est pas basé sur des faits.

Les réponses sont inexactes

Récemment, Stack Overflow, le forum de programmation populaire, [banned](https://meta. stackoverflow.com/questions/421831/temporary-policy-chatgpt-is-banned) toutes les réponses créées par ChatGPT citant un degré élevé d'inexactitude dans les réponses du bot. Bien qu'il ait précisé qu'il s'agissait d'une politique temporaire, il a réitéré que le problème ne réside pas seulement dans l'inexactitude des réponses de ChatGPT, mais plus profondément dans la façon dont le bot formule ses réponses.

En raison de la nature des LLM, en particulier GPT-3.5 - qui a été utilisé pour créer ChatGPT - il peut non seulement générer des phrases grammaticalement correctes avec un ton formel, mais il les rend également autoritaires et énergiques.

Stack Overflow a déclaré : "[Les réponses de ChatGPT] semblent généralement bonnes et les réponses sont très faciles à produire. De nombreuses personnes essaient également ChatGPT pour créer des réponses, sans l'expertise ou la volonté de vérifier que la réponse est correcte avant de la publier.

Donne des informations non vérifiées

Sur Twitter, divers utilisateurs, dont le célèbre expert en intelligence artificielle Andrew Ng, ont signalé le flou des réponses données à certaines questions spécifiques. Dans certains cas, les gens ont même publié de mauvaises réponses données par le chatbot, ce qui pourrait induire ses utilisateurs en erreur.

Il y a également eu des cas où les utilisateurs ont posté que bien que le chatbot ne réponde pas aux questions controversées ou politiques, il produit des blagues politiquement incorrectes.

Gary Marcus, professeur émérite de l'Université de New York, a partagé sur Twitter une foule d'exemples d'informations incorrectes par le chatbot dans lesquelles il est limité dans sa capacité à tirer parti des faits.

L'auteur John Warner soutient que le chatbot invente des informations en citant un exemple dans lequel il lui a donné une liste d'articles qui n'existait pas.

Assertions appuyées par de fausses citations

Lorsque le chatbot est utilisé pour écrire une [histoire de base](https://usbreakingnewshub.com/index.php/2022/12/08/chatgpt-can-fool-humans-even-when-its-wrong-backs- up-assertions-with-fake-quotes/) sur les revenus trimestriels d'une grande entreprise technologique, le chatbot produit une réplique fiable des résultats financiers de l'entreprise, des domaines dans lesquels il a enregistré une augmentation des revenus et des domaines de croissance potentielle. Pour le rendre plus authentique, il complète même l'article avec une citation du PDG de l'entreprise.

En effet, ces modèles de langage ont appris que les reportages sont toujours accompagnés d'une citation et de données. Ainsi, le chatbot reproduit également ce comportement.

Pas de citations et références inexistantes

Malgré une réponse détaillée qui semble crédible et imite une conversation humaine complète avec des informations exhaustives, ChatGPT ne parvient pas à révéler ou à répertorier ses sources, soulevant une question alarmante d'informations vérifiées et pratiques.

De plus, lorsqu'il rend ces informations disponibles, il donne des références inexistantes. Prenons le cas de cet utilisateur qui a dit que chacune des références fournies par le chatbot en réponse à sa requête recherchant des références traitant des propriétés mathématiques de les listes n'existaient pas !

Brillamment stupide

Gary Marcus dans son article, '[The Road to AI We can Trust'](https://garymarcus.substack.com/p/how-come-gpt-can-seem-so-brilliant?r=17uk7&utm_campaign=post&utm_medium= email), souligne que les connaissances de GPT concernent en partie les propriétés spécifiques des entités et qu'il n'est pas en mesure de maîtriser complètement les relations abstraites.

Prenez, par exemple, si vous demandez au Chatbot un article sur une zone spécifique (Jayanagar) à Bangalore, il écrit au hasard sur une association d'aide sociale résidente de la zone qui est connue pour ses initiatives citoyennes. Il n'entre pas dans l'histoire de la région, sa taille ou d'autres aspects pertinents.

En quoi est-ce différent de la recherche Google ?

Aujourd'hui, beaucoup de gens appellent ChatGPT le "Nouveau Google" ou "Google Killer", ce qui, dans une certaine mesure, est vrai, en particulier dans le cas de l'affichage de suggestions bizarres. Google, par exemple, suggère le cancer comme réponse à tous les symptômes, même lorsque vous interrogez pour un mal de ventre. Mais, dans le cas de ChatGPT, cela ne reflète pas de telles suggestions, mais plutôt de la désinformation. En d'autres termes, nous pouvons dire que "ChatGPT est une version glorifiée de la recherche Google", mais en bien mieux.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd