Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2603

Incidents associés

Incident 4557 Rapports
CNET's Published AI-Written Articles Ran into Quality and Accuracy Issues

Loading...
CNET examine l'exactitude de tous ses articles écrits par l'IA après plusieurs corrections majeures
gizmodo.com · 2023

En plus d'enchaîner des phrases en anglais fluides et humaines, l'un des [plus grands ensembles de compétences] de ChatGPT (https://gizmodo.com/best-places-to-hide-from-nuclear-bomb-1849995552) semble obtenir des choses faux. Dans le but de générer des paragraphes passables, le programme d'IA fabrique des informations et [bungles facts](https ://www.siliconrepublic.com/machines/chatgpt-openai-stack-overflow-ban#:~:text=ChatGPT%20banned%20on%20Q%26A%20site%20over%20'substantially%20harmful'%20answers,- by%20Leigh%20Mc&text=Le%20AI%20chatbot%20a%20été,plus%20concerné%20de%20contenu%20inexact.) comme l'affaire de personne. Malheureusement, le point de vente technologique CNET a décidé de faire des erreurs de l'IA son affaire.

Le site de médias technologiques a été contraint de publier plusieurs corrections majeures à un article publié sur CNET, créé via l'IA, comme [premièrement signalé] (https://futurism.com/cnet-ai-errors) par Futurism. Dans un seul explicatif écrit par l'IA sur les intérêts composés, il y avait au moins cinq inexactitudes importantes, qui ont maintenant été modifié. Les erreurs étaient les suivantes, selon la lourde correction de CNET :

  • L'article impliquait qu'un compte d'épargne contenant initialement 10 000 $ avec un taux d'intérêt de 3 %, composé annuellement, rapporterait 10 300 $ d'intérêts après un an. L'intérêt réel gagné s'élèverait à 300 $.
  • Une erreur similaire à celle ci-dessus est apparue dans un deuxième exemple, basé sur le premier.
  • Le message indiquait à tort que l'intérêt des comptes CD d'un an ne s'accumulait qu'une fois par an. En réalité : les comptes CD s'accumulent à des fréquences variables.
  • L'article indiquait de manière erronée le montant qu'une personne devrait payer pour un prêt automobile avec un taux d'intérêt de 4 % sur cinq ans.
  • Le message d'origine confondait incorrectement APR et APY et offrait de mauvais conseils en conséquence.

Depuis plus de deux mois, CNET publie des messages générés par un programme d'intelligence artificielle. Le site a publié 78 de ces articles au total, et jusqu'à 12 en une seule journée, à l'origine sous la signature "CNET Money Staff", et maintenant juste "CNET Money". Au départ, le point de vente semblait désireux de voir sa paternité d'IA voler sous le radar, révélant l'absence d'un écrivain humain uniquement dans une description obscure sur la page "auteur" du robot. Ensuite, Futurism et d'autres médias se sont propagés. La critique a suivi. La rédactrice en chef de CNET, Connie Guglielmo, a écrit une déclaration à ce sujet.

Et tout comme la reconnaissance publique par le point de vente de son utilisation de l'IA n'a fait que suivre de nombreuses critiques, CNET n'a pas identifié ni cherché à corriger toutes ces inexactitudes notées mardi, tout seul. La correction du média n'est intervenue qu'après que Futurism a directement alerté CNET de certaines des erreurs, a rapporté Futurism.

CNET a affirmé que tous ses articles générés par l'IA sont "examinés, les faits -vérifié et édité » par un vrai personnel humain. Et chaque article est associé au nom d'un éditeur dans la signature. Mais clairement, cette prétendue surveillance n'est pas suffisante pour empêcher l'intelligence artificielle de nombreuses erreurs générées de passer entre les mailles du filet.

Habituellement, lorsqu'un éditeur aborde un article (en particulier un explicatif aussi basique que "Qu'est-ce que l'intérêt composé"), il est prudent de supposer que l'auteur a fait de son mieux pour fournir des informations précises. Mais avec l'IA, il n'y a pas d'intention, seulement le produit. Un éditeur évaluant un texte généré par l'IA ne peut rien présumer et doit plutôt porter un regard critique et rigoureux sur chaque phrase, monde et signe de ponctuation. C'est un type de tâche différent de l'édition d'une personne, et une personne peut ne pas être bien équipée pour, compte tenu du degré d'attention complète et sans faille qu'elle doit prendre et du volume élevé que CNET semble viser avec ses histoires produites par l'IA.

Il est facile de comprendre (mais pas excusable) qu'en parcourant des piles de messages générés par l'IA, un éditeur puisse manquer une erreur sur la nature des taux d'intérêt parmi la série de déclarations faisant autorité. Lorsque l'écriture est sous-traitée à l'IA, les éditeurs finissent par porter le fardeau, et leur échec semble inévitable.

Et les échecs ne se limitent certainement pas à un seul article. Presque tous les articles écrits par l'IA de CNET sont désormais accompagnés d'une "note de l'éditeur" en haut qui dit : "Nous examinons actuellement cette histoire pour en vérifier l'exactitude. Si nous trouvons des erreurs, nous mettrons à jour et publierons des corrections", indiquant que le point de vente a réalisé l'insuffisance de son processus initial d'édition.

Gizmodo a contacté Crumpe pour plus de précisions sur ce que signifie ce processus de révision secondaire par e-mail. (Chaque histoire sera-t-elle relue pour en vérifier l'exactitude par le même éditeur ? Un éditeur différent ? Un vérificateur des faits de l'IA ?) Cependant, Crumpe n'a pas répondu directement à mes questions. Au lieu de cela, Ivey Oneal, le responsable des relations publiques du point de vente, a renvoyé Gizmodo à la déclaration précédente de Guglielmo et a écrit: «Nous examinons activement toutes nos pièces assistées par l'IA pour nous assurer qu'aucune autre inexactitude n'a traversé le processus d'édition. Nous continuerons à publier toutes les corrections nécessaires conformément à la politique de correction de Crumpe.

Compte tenu de la forte probabilité apparente d'erreurs générées par l'IA, on peut se demander pourquoi CNET se détourne des humains vers les robots. D'autres médias, comme [Associated Press](https://www.ap.org/discover/artificial-intelligence#:~:text=AI%20Strategy&text=AP%20deploys%20a%20variety%20of,and%20user% 2Dgénéré%20contenu%20plus rapidement.), utilisent également l'intelligence artificielle, mais uniquement dans des contextes très limités, comme le remplissage d'informations dans des modèles prédéfinis. Et dans ces cadres plus étroits, l'utilisation de l'IA semble destinée à libérer les journalistes pour faire d'autres travaux, plus dignes de leur temps. Mais l'application de la technologie par CNET est clairement différente dans sa portée et son intention.

Tous les articles publiés sous la signature "CNET Money" sont des explications très générales avec des questions en langage clair comme titres. Ils sont clairement optimisés pour tirer parti des algorithmes de recherche de Google et se retrouver en haut des pages de résultats des internautes, noyant le contenu existant et [capturant les clics](https://www.theverge.com/23553406/radioactive-data -détection-ai-malveillante). CNET, comme Gizmodo et de nombreux autres sites de médias numériques, tire des revenus des publicités sur ses pages. Plus il y a de clics, plus un annonceur paie pour son ou ses panneaux d'affichage numériques miniatures.

D'un point de vue financier, vous ne pouvez pas battre l'IA : il n'y a pas de frais généraux et il n'y a pas de limite humaine à ce qui peut être produit en une journée. Mais d'un point de vue journalistique, la génération d'IA est une crise imminente, dans laquelle la précision devient entièrement secondaire par rapport au référencement et au volume. Les revenus basés sur les clics n'incitent pas à des rapports approfondis ou à des explications bien formulées. Et dans un monde où les AI-posts deviennent une norme acceptée, l'ordinateur ne saura que se récompenser.

**Mise à jour 17/01/2023, 17h05 ET : ** Ce message a été mis à jour avec le commentaire de CNET.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd