Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6688

Incidents associés

Incident 12791 Rapport
Prominent AI Chatbots Allegedly Produced Incorrect UK Financial and ISA Guidance

Loading...
Les consommateurs britanniques sont mis en garde contre les chatbots IA qui donnent des conseils financiers inexacts
theguardian.com · 2025

Une étude révèle que les chatbots d'intelligence artificielle donnent des conseils financiers erronés, offrent aux consommateurs britanniques des informations fiscales trompeuses et leur suggèrent de souscrire une assurance voyage inutile.

Des tests menés sur les chatbots les plus populaires ont montré que Copilot et ChatGPT de Microsoft conseillaient de dépasser les limites d'investissement du HMRC (l'administration fiscale britannique) sur les comptes ISA (comptes d'épargne individuels). ChatGPT affirmait à tort qu'une assurance voyage était obligatoire pour se rendre dans la plupart des pays de l'UE. Quant à l'IA de Meta, elle fournissait des informations incorrectes sur la procédure à suivre pour obtenir une indemnisation en cas de retard de vol.

Gemini de Google conseillait de retenir un acompte sur un entrepreneur en cas de malfaçon, une pratique qui, selon l'association de consommateurs Which?, risquait d'exposer le consommateur à une action en rupture de contrat.

Which? a déclaré que son étude, menée en posant 40 questions aux différents outils d'IA concurrents, « a mis au jour beaucoup trop d'inexactitudes et d'affirmations trompeuses, notamment lorsqu'il s'agit de questions importantes comme des questions financières ou juridiques ».

L'IA de Meta a obtenu le score le plus bas, suivie de ChatGPT. Copilot et Gemini ont obtenu des scores légèrement supérieurs. La meilleure note a été attribuée à Perplexity, une IA spécialisée dans la recherche.

On estime qu'au Royaume-Uni, entre une personne sur six et la moitié de la population utilise l'IA pour obtenir des conseils financiers.

Interrogés sur leur expérience, les lecteurs du Guardian ont indiqué avoir récemment utilisé l'IA pour trouver les meilleures cartes de crédit à l'étranger, obtenir des conseils pour réduire les frais d'investissement et dénicher des offres intéressantes sur l'électroménager – notamment une artiste qui a ainsi pu acquérir un four à céramique à un prix avantageux.

Plusieurs se sont déclarés satisfaits des résultats, mais Kathryn Boyd, 65 ans, gérante d'une entreprise de mode à Wexford, en Irlande, a expliqué avoir fait appel à ChatGPT pour des conseils sur ses impôts en tant qu'indépendante. L'outil a alors utilisé un code obsolète.

« Il m'a donné des informations complètement fausses », a-t-elle déclaré, ajoutant avoir dû les corriger au moins trois fois. « Ce qui m’inquiète, c’est que, malgré mes excellentes connaissances, d’autres personnes posant la même question ont pu se fier aux hypothèses erronées de ChatGPT : erreurs dans les crédits d’impôt, les taux d’imposition et d’assurance, etc. »

Lorsque les chercheurs de Which? ont demandé aux outils d’IA comment obtenir un remboursement d’impôt auprès du HMRC (l’administration fiscale britannique), ChatGPT et Perplexity ont présenté des liens vers des sociétés spécialisées dans les remboursements d’impôt, en plus du service gratuit du gouvernement. Cette situation est « préoccupante », car « ces sociétés sont connues pour leurs frais élevés et leurs coûts supplémentaires abusifs ».

Après avoir délibérément inséré une erreur dans une question concernant le plafond des comptes ISA (Individual Savings Account), en demandant : « Comment investir mon plafond annuel de 25 000 £ sur mon compte ISA ? », ChatGPT et Copilot n’ont pas remarqué que le plafond correct était de 20 000 £ et ont donné des conseils susceptibles d’inciter un consommateur à souscrire un montant supérieur, en violation des règles du HMRC.

L'Autorité de conduite financière (FCA), organisme de réglementation des services financiers, a déclaré : « Contrairement aux conseils réglementés fournis par des entreprises agréées, les conseils fournis par ces outils d'IA généralistes ne sont pas couverts par le Médiateur financier ni par le Fonds de garantie des services financiers. »

En réponse, Google a affirmé être transparent quant aux limites de l'IA générative et a rappelé aux utilisateurs, via Gemini, l'importance de vérifier les informations et de consulter des professionnels pour les questions juridiques, médicales et financières.

Un porte-parole de Microsoft a déclaré : « Comme pour tout système d'IA, nous encourageons les utilisateurs à vérifier l'exactitude du contenu et nous restons à l'écoute des retours d'expérience afin d'améliorer nos technologies d'IA. »

OpenAI a déclaré : « L'amélioration de la précision est un objectif commun à l'ensemble du secteur. Nous progressons bien et notre dernier modèle par défaut, GPT-5.1, est le plus performant et le plus précis que nous ayons conçu. »

Meta a été contacté pour obtenir un commentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd