Incidents associés
Hyderabad : À Hyderabad, des médecins mettent en garde la population contre le recours exclusif aux outils d'intelligence artificielle (IA) tels que ChatGPT pour obtenir des conseils médicaux. Ils insistent sur le fait que les patients, en particulier ceux souffrant de maladies chroniques ou graves, doivent toujours consulter un professionnel de santé qualifié avant de modifier leur traitement, leur alimentation ou leur plan de soins. Cet avertissement fait suite à au moins deux incidents alarmants survenus récemment dans la ville.
Dans le premier cas, une femme de 30 ans, ayant bénéficié d'une transplantation rénale dans le cadre du programme Jeevandan à l'Institut Nizam des sciences médicales (NIMS), a perdu son greffon après avoir interrompu son traitement antibiotique sur la suggestion de ChatGPT. « Cette femme, sous dialyse depuis sept ans avant la transplantation, aurait arrêté tous ses médicaments après que ChatGPT lui a indiqué que, son taux de créatinine étant normal, elle n'en avait plus besoin », explique le Dr Sree Bhushan Raju, néphrologue au NIMS.
En quelques semaines, son état s'est dégradé et son taux de créatinine a de nouveau grimpé en flèche. Elle a finalement dû subir une intervention chirurgicale et être remise sous dialyse avant de sortir de l'hôpital récemment. « Nous constatons une tendance inquiétante : même des patients instruits se fient aux conseils générés par l'IA au lieu de consulter un médecin », a déclaré le Dr Mohd Taif, un autre néphrologue expérimenté.
Les médecins ont également observé des comportements similaires chez les personnes âgées, dont beaucoup sollicitent l'avis de ChatGPT sur leurs médicaments ou les modifications de posologie, malgré les recommandations contraires de leurs médecins.
« Cette dépendance excessive à l'IA devient une habitude dangereuse », a averti le Dr Taif.
Dans un autre cas, un homme diabétique de 62 ans, habitant la ville, a subi une perte de poids soudaine et une hyponatrémie sévère après avoir suivi un régime suggéré par ChatGPT. L'outil d'IA lui avait conseillé de supprimer complètement sa consommation de sel, ce qui s'est avéré dangereux compte tenu de sa pathologie préexistante. « Ces incidents montrent que si l'IA peut fournir des informations générales, elle manque du jugement clinique et de la compréhension du contexte qu'apporte un médecin qualifié », a déclaré le Dr K Rakesh, néphrologue expérimenté du secteur public.
En août dernier, un New-Yorkais de 60 ans aurait été hospitalisé après avoir suivi un régime alimentaire généré par ChatGPT qui lui conseillait de remplacer tout le sel de table (chlorure de sodium) par du bromure de sodium, une substance toxique. Les experts de la santé ont rappelé que ChatGPT et les outils similaires peuvent être utiles pour sensibiliser le public à la santé, mais ne doivent en aucun cas se substituer à une consultation médicale. « Certaines personnes commencent à croire que ChatGPT est supérieur aux médecins, mais aucune intelligence artificielle ne peut égaler l'intellect, l'intuition et l'expérience d'un professionnel de santé », a déclaré le Dr Raju.