Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6694

Incidents associés

Incident 12812 Rapports
Alleged Harmful Health Outcomes Following Reported Use of Purported ChatGPT-Generated Medical Advice in Hyderabad

Loading...
ChatGPT n'est pas votre médecin : des médecins d'Hyderabad mettent en garde après que des patients ont subi des préjudices suite à des conseils prodigués par une IA.
completeaitraining.com · 2025

Les médecins exhortent les patients à ne plus utiliser les chatbots d'IA comme substitut aux soins médicaux.


À Hyderabad, les cliniciens constatent une forte augmentation du nombre de patients qui suivent les conseils génériques de chatbots et en subissent les conséquences dramatiques. Deux cas récents soulignent ce risque : l'arrêt d'un traitement post-transplantation essentiel et le suivi d'un régime hyposodé ayant entraîné un grave déséquilibre électrolytique.

La leçon à retenir pour les équipes soignantes est simple : les outils d'IA peuvent contribuer à l'information générale, mais ils ne peuvent remplacer le jugement clinique, le contexte longitudinal ni un plan de soins personnalisé tenant compte des comorbidités et des risques.

Que s'est-il passé à Hyderabad ?

Une patiente de 30 ans, ayant bénéficié d'une transplantation rénale, aurait interrompu son traitement antibiotique après qu'un chatbot d'IA lui a indiqué que son taux de créatinine « normal » signifiait qu'elle n'avait plus besoin de ces médicaments. Quelques semaines plus tard, la fonction de son greffon s'est dégradée, son taux de créatinine a grimpé en flèche et elle a dû reprendre la dialyse après l'opération. Des néphrologues expérimentés du NIMS ont mis en lumière une tendance inquiétante : même des patients bien informés agissent en fonction des résultats de chatbots sans consulter leur équipe soignante.

Dans un autre cas, un homme de 62 ans atteint de diabète a subi une perte de poids rapide et une hyponatrémie dangereuse après avoir suivi les conseils d'un chatbot recommandant une suppression totale du sel. Comme l'a souligné un néphrologue du gouvernement : « Les conseils généraux ignorent le patient qui se trouve devant vous. » Un autre rapport, provenant de New York, décrit le cas d'un homme hospitalisé après avoir remplacé le sel de table par du bromure de sodium suite à une suggestion en ligne : un exemple de conseils toxiques et non cliniques qui passent entre les mailles du filet.

Pourquoi les conseils génériques de l'IA échouent en milieu clinique

Les chatbots ne tiennent pas compte des contre-indications, des interactions médicamenteuses, des protocoles de transplantation ni de l'historique médical du patient. Ils interprètent des données isolées et produisent des réponses péremptoires, même lorsque les preuves sont faibles ou que le contexte est absent. Cette lacune peut transformer des conseils qui semblent pourtant pertinents en danger.

  • Ils ignorent les protocoles de transplantation et d'oncologie où le respect est impératif.

  • Ils interprètent mal les résultats d'analyses en l'absence de tendances ou de corrélations cliniques.

  • Ils déforment les faits et citent des recommandations obsolètes avec assurance. - Absence de responsabilité : aucun devoir de diligence, consentement éclairé ni suivi.

Mesures concrètes pour les cliniciens et les administrateurs

  • Poser la question dès le début : « Avez-vous utilisé des applications ou des outils d'IA pour obtenir des conseils depuis votre dernière visite ? » Consigner les réponses.

  • Établir une règle permanente : aucun changement de médicament, de dose ou de régime alimentaire sans l'accord d'un clinicien, en particulier pour les patients transplantés, cardiaques, endocriniens ou atteints de cancer.

  • Intégrer une phrase concise dans les résumés de sortie : « Avant de modifier votre traitement ou votre régime alimentaire suite à des conseils en ligne ou via une IA, veuillez contacter notre clinique. »

  • Utiliser la méthode de vérification des connaissances pour les traitements à haut risque (immunosuppresseurs, insuline, anticoagulants). Confirmer les instructions à suivre par les patients à domicile.

  • Proposer des ressources pédagogiques fiables et expliquer pourquoi : les documents destinés aux patients et validés par votre équipe sont plus efficaces que les extraits de chatbot.

  • Mettre en place un processus de triage : si un patient présente un résultat de chatbot, le consulter pendant la consultation ou via un bref message sur le portail patient plutôt que de l'ignorer. - Politique d'équipe concernant l'utilisation de l'IA par le personnel : usage exclusivement destiné aux cliniciens, aucune recommandation personnalisée pour un patient sans vérification ; consigner les sources et les décisions humaines finales.

  • Signaler les analyses à risque liées à des astuces diététiques personnelles (ex. : sodium, potassium) et définir des seuils pour une prise de contact rapide.

Comment parler d'IA aux patients sans les exclure

  • Valider d'abord : « C'est formidable que vous soyez proactif. Adaptons cela à votre pathologie et à vos médicaments. »

  • Clarifier le risque : « Les conseils généraux ne tiennent pas compte de vos analyses, de vos antécédents médicaux ni de votre plan de transplantation. C'est là que le risque existe. »

  • Indiquer une action claire : « Si une application suggère un changement, transmettez-le-nous. Nous vérifierons ce qui est sans danger. »

  • Proposer des alternatives : indiquer les documents, portails ou ateliers de groupe approuvés et adaptés à leur pathologie.

Rappels cliniques pour les situations à haut risque

  • Transplantation : insister sur l'observance stricte des immunosuppresseurs et des traitements adjuvants ; toute modification doit être validée par l'équipe de transplantation. - Risque d'hyponatrémie : soyez vigilant face aux régimes alimentaires extrêmes (« alimentation saine » ou sans sel) ; informez les patients sur les symptômes et les situations nécessitant un appel.

  • Personnes âgées et personnes sous polymédication : examinez proactivement les « conseils » reçus entre les consultations.

Ressources

  • Recommandations de l'OMS sur l'éthique et la gouvernance de l'IA en santé

  • MedlinePlus : Aperçu de l'hyponatrémie

Renforcer les compétences de votre équipe en matière d'IA responsable

Si votre clinique évalue l'IA pour des tâches administratives ou destinées aux cliniciens, investissez dans une formation structurée axée sur la vérification, les biais et la sécurité, avant tout contact avec les patients. Un référentiel commun permet d'éviter une utilisation improvisée et des messages contradictoires aux patients.

  • Formations en IA responsable par fonction pour les équipes souhaitant utiliser des outils sans compromettre la qualité des soins.

En résumé : l’IA doit rester à sa place. Utilisez-la pour informer, rédiger et apporter un soutien, et non pour remplacer le raisonnement clinique qui garantit la sécurité des patients.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd