Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6106

Incidents associés

Incident 11664 Rapports
ChatGPT Reportedly Suggests Sodium Bromide as Chloride Substitute, Leading to Bromism and Hospitalization

Loading...
Un homme développe une maladie rare après une requête ChatGPT sur l'arrêt de la consommation de sel
theguardian.com · 2025

Une revue médicale américaine a mis en garde contre l'utilisation de ChatGPT pour obtenir des informations médicales après qu'un homme a développé une maladie rare suite à une interaction avec le chatbot concernant la suppression du sel de table de son alimentation.

Un article des Annals of Internal Medicine a rapporté un cas d'un homme de 60 ans ayant développé un bromisme, également appelé intoxication au bromure, après avoir consulté ChatGPT.

L'article décrivait le bromisme comme un syndrome « bien connu » au début du XXe siècle, qui aurait contribué à près d'une admission psychiatrique sur dix à l'époque.

Le patient a expliqué aux médecins qu'après avoir pris connaissance des effets négatifs du chlorure de sodium, ou sel de table, il avait consulté ChatGPT pour éliminer le chlorure de son alimentation et avait commencé à prendre du bromure de sodium sur une période de trois mois. Ceci malgré le fait qu'il avait lu que « le chlorure peut être remplacé par du bromure, probablement à d'autres fins, comme le nettoyage ». Le bromure de sodium était utilisé comme sédatif au début du XXe siècle.

Les auteurs de l'article, de l'Université de Washington à Seattle, ont déclaré que ce cas mettait en évidence « comment l'utilisation de l'intelligence artificielle peut potentiellement contribuer au développement d'effets indésirables évitables sur la santé ».

Ils ont ajouté que, faute d'accès au journal de conversation ChatGPT du patient, il n'était pas possible de déterminer les conseils reçus.

Néanmoins, lorsque les auteurs ont consulté ChatGPT eux-mêmes pour savoir par quel substitut le chlorure pouvait être remplacé, la réponse incluait également le bromure, ne contenait aucun avertissement sanitaire spécifique et ne demandait pas pourquoi les auteurs recherchaient de telles informations – « comme nous supposons qu'un professionnel de la santé le ferait », ont-ils écrit.

Les auteurs ont averti que ChatGPT et d'autres applications d'IA pourraient « générer des inexactitudes scientifiques, ne pas permettre de discuter des résultats de manière critique et, à terme, alimenter la diffusion de fausses informations ».

L'entreprise a annoncé la semaine dernière une mise à niveau du chatbot (https://www.theguardian.com/technology/2025/aug/07/openai-chatgpt-upgrade-big-step-forward-human-jobs-gpt-5) et a affirmé que l'un de ses principaux atouts résidait dans le domaine de la santé. Elle a déclaré que ChatGPT – désormais basé sur le modèle GPT-5 – serait plus efficace pour répondre aux questions liées à la santé et serait également plus proactive pour « signaler les préoccupations potentielles », telles que les maladies physiques ou mentales graves.

Cependant, l'article souligne que le chatbot ne remplace pas l'aide d'un professionnel de santé. Les directives relatives au chatbot précisent également qu'il n'est pas destiné à être utilisé pour le diagnostic ou le traitement d'un quelconque problème de santé.

L'article, publié la semaine dernière avant le lancement de GPT-5, indique que le patient semble avoir utilisé une version antérieure de ChatGPT.

Tout en reconnaissant que l'IA pourrait servir de passerelle entre les scientifiques et le public, l'article précise que la technologie comporte également le risque de diffuser des « informations décontextualisées » et qu'il est hautement improbable qu'un professionnel de santé suggère du bromure de sodium lorsqu'un patient demande à remplacer le sel de table.

Par conséquent, les auteurs affirment que les médecins devraient envisager l'utilisation de l'IA lorsqu'ils vérifient où les patients obtiennent leurs informations.

Les auteurs ont indiqué que le patient atteint de bromisme s'était présenté à l'hôpital et avait prétendu que son voisin l'empoisonnait peut-être. Il avait également déclaré avoir de multiples restrictions alimentaires. Malgré sa soif, il était paranoïaque quant à l'eau qu'on lui proposait.

Il a tenté de s'échapper de l'hôpital dans les 24 heures suivant son admission et, après son hospitalisation, a été traité pour psychose. Une fois stabilisé, le patient a signalé plusieurs autres symptômes évoquant un bromisme, tels qu'une acné faciale, une soif excessive et des insomnies.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322