Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3240

Incidents associés

Incident 5771 Rapport
Bankrate's Resumption of AI-Generated Content Allegedly Continuing to Produce Inaccurate and Misleading Information

Loading...
Bankrate publie un article généré par l'IA et le supprime lorsque nous soulignons qu'il est plein d'erreurs
futurism.com · 2023

Le site financier Bankrate a recommencé à publier des articles générés par l'IA, et il insiste sur le fait que cette fois, ils ont été méticuleusement vérifiés par un journaliste humain avant d'être publiés.

"Cet article a été généré à l'aide d'une technologie d'automatisation et soigneusement édité et vérifié par un rédacteur de notre équipe éditoriale", lit-on dans un message au bas des nouveaux articles sur l'IA, tandis qu'une assurance distincte affirme qu'une "équipe dédiée d'éditeurs de Bankrate" s'efforcer de « modifier et vérifier minutieusement le contenu, en garantissant que les informations sont exactes, faisant autorité et utiles à notre public ».

Il serait logique que les dirigeants du site se soucient profondément de la précision de chaque détail.

Après que Bankrate et son site sœur CNET aient commencé à publier des articles générés par l'IA à la fin de l'année dernière, Futurism a découvert que les articles étaient criblé d'erreurs factuelles et même apparemment matériel plagié. Le Washington Post a qualifié l'affaire de « désastre journalistique », et le LA Times a plaisanté que le comportement de l'IA « ferait expulser un étudiant humain ou un journaliste renvoyé ». CNET et Bankrate — tous deux détenus par une société de médias appelée Red Ventures, vautaient milliards de dollars — a suspendu la publication du contenu de l'IA indéfiniment après le dépoussiérage.

Jusqu'à présent, du moins. Sans tambour ni trompette, la semaine dernière, Bankrate a recommencé à publier de nouveaux articles générés par l'IA – qu'il a décrit dans un avertissement comme « maintenus par une plate-forme interne de génération de langage naturel utilisant des bases de données standard de l'industrie » – suggérant que CNET pourrait bientôt redémarrer le programme également.

Les sujets des nouveaux articles sont banals et clairement conçus pour attirer les lecteurs recherchant des informations sur Google, avec des titres tels que « Documents nécessaires à l'approbation préalable d'un prêt hypothécaire » et « Les meilleurs endroits où vivre dans le Colorado en 2023 ».

Avec autant d’attention portée à l’utilisation de l’IA par l’entreprise, on pourrait s’attendre à ce que ces premiers nouveaux articles sur l’IA – à tout le moins – soient minutieusement examinés en interne avant leur publication. Au lieu de cela, un examen de base révèle que l'IA de l'entreprise commet encore des erreurs rudimentaires et que son personnel humain, sans parler des dirigeants qui encouragent l'utilisation de l'IA, ne les détecte toujours pas avant de se retrouver devant des lecteurs sans méfiance.

Par exemple, considérons cet article sur les meilleurs endroits où vivre dans le Colorado. Il est extrêmement facile de vérifier les affirmations de l'IA, car l'article comporte bien en évidence un lien vers une page « [méthodologie »](https://www.bankrate.com/real-estate/best-places-to-live/methodology /) – évidemment destiné à renforcer la position du site dans les résultats des moteurs de recherche en signalant à des entités comme le robot d'exploration de Google que ses informations sont exactes – qui documente précisément l'endroit où le site est censé obtenir les données dans ses articles « Meilleurs endroits où vivre ».

En comparant les affirmations de l’IA à ces données accessibles au public, voici quelques-unes des erreurs qu’elle a commises :

-Il a affirmé que le prix médian des maisons de Boulder était de 1 075 000 $. En réalité, selon les données Redfin citées par Bankrate, le chiffre réel est inférieur de plus d'un quart de million de dollars, à environ 764 000 dollars.

-Il a affirmé que le salaire moyen de Boulder était de 79 649 $. En réalité, les données du ministère du Commerce citées montrent que le chiffre le plus récent est supérieur de dix mille dollars, à 89 593 $.

-Il a affirmé que le taux de chômage à Boulder était de 3,1 pour cent. En réalité, selon les données du Bureau of Labor Statistics citées, le chiffre réel est de 2,5 pour cent.

-Il a affirmé que le nombre total de travailleurs de Boulder, d'une année sur l'autre, avait augmenté de 5,3 pour cent. Le chiffre réel, selon les données du Bureau of Labor Statistics citées, est de 0,6 pour cent.

-Il a affirmé que le score de « bien-être » de Boulder, tel qu'évalué par une société appelée Sharecare, était de 67,6. Selon les [données réelles] de Sharecare (https://wellbeingindex.sharecare.com/interactive-map/?defaultState=CO), le score qu'il a attribué est de 74.

Au total, une vérification superficielle des faits montre qu’une proportion écrasante des affirmations faites par l’IA de Bankrate à propos du Colorado étaient fausses.

En réponse aux questions sur les erreurs, Bankrate a supprimé l'article – bien qu'il soit archivé ici – et a publié une déclaration dans laquelle un porte-parole défendait l'IA et imputait les erreurs à des tiers. -données de date.

"Bien qu'une partie du texte de cet article ait été créée à l'aide d'un outil d'assistance à l'IA, les erreurs constatées concernaient la collecte et la récupération des données, et non l'outil d'assistance à l'IA génératif", a-t-elle déclaré. "Ces données ont été extraites d'une base de données interne non-IA l'année dernière."

N'oubliez pas que les mêmes données qu'ils accusent aujourd'hui sont celles qu'ils ont décrites dans la clause de non-responsabilité de l'article comme étant une « base de données conforme aux normes de l'industrie ».

"Notre éditeur a confirmé les points de données par rapport au matériel source fourni", a-t-elle poursuivi. "L'éditeur n'est pas responsable de l'erreur de publication. Le problème provenait d'un ensemble de données obsolète qui a été extrait pour cet article."

Il convient de souligner que la chronologie du porte-parole – selon laquelle les données de l'article ont été « extraites » l'année dernière – n'a pas beaucoup de sens. D'après une sauvegarde de l'article « Les meilleurs endroits où vivre au Colorado » [sur Internet Archive](https://web.archive.org/web/20230519194031/https://www.bankrate.com/real-estate/ best-places-to-live/colorado/), pas plus tard que le mois dernier, l'article portait toujours une signature humaine et ne contenait aucune des erreurs que nous avons identifiées. En fait, il n'a même pas inclus Boulder parmi les lieux de vie recommandés, ce qui suggère que son inclusion était basée sur des données inexactes.

La réponse du porte-parole à une question complémentaire sur cette divergence n’a pas permis de clarifier la situation.

"Nous mettons souvent à jour les articles existants pour garantir que les informations sont pertinentes pour notre public", a-t-elle écrit. "Dans cet exemple particulier, alors que nous mettions à jour l'article, nous voulions adopter une approche plus axée sur les données pour notre liste, mais nous avons malheureusement tiré d'un ensemble de données obsolètes."

Lorsqu'on lui a demandé pourquoi le site publierait des articles en juin 2023 sur la base des données de l'année précédente, le porte-parole n'a pas eu de réponse.

Quoi qu’il en soit, le porte-parole a promis que la société continuerait bientôt à publier du contenu similaire.

"Nous avons supprimé l'article et le mettrons à jour avec les données les plus récentes", a-t-elle déclaré. "À l'avenir, nous veillerons à ce que toutes les études de données incluent la plage de dates à laquelle les données ont été collectées."

Dans l'ensemble, cela ressemble à un épisode de plus dans un schéma familier : les éditeurs poussent leurs salles de rédaction à publier à la hâte des articles générés par l'IA sans vérification sérieuse des faits, dans le but d'attirer les lecteurs de Google sans s'assurer qu'ils reçoivent des informations exactes. . Interpellée pour des erreurs facilement évitables, l'entreprise marmonne une excuse, attend que l'indignation s'apaise, puis réessaye.

Lorsqu'on lui a demandé si un membre de la direction de Red Ventures était prêt à défendre officiellement les antécédents de l'entreprise en matière de publication de contenu généré par l'IA, le porte-parole n'a pas répondu.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd