Incidents associés
Une étude de cas publiée ce mois-ci offre un récit édifiant et adapté à notre époque. Des médecins détaillent comment un homme a souffert d'une psychose causée par un empoisonnement après avoir suivi des conseils diététiques guidés par l'IA.
Des médecins de l'Université de Washington ont documenté l'épisode réel de Black Mirror dans les Annales de médecine interne : cas cliniques. L'homme aurait développé une intoxication due au bromure qu'il avait ingéré pendant trois mois sur recommandation de ChatGPT. Heureusement, son état s'est amélioré grâce au traitement et il s'est rétabli.
Au début du XXe siècle, les composés bromés étaient couramment utilisés pour traiter divers problèmes de santé, de l'insomnie à l'anxiété. Cependant, on a finalement réalisé que le bromure pouvait être toxique à doses élev ées ou chroniques et, ironiquement, provoquer des troubles neuropsychiatriques. Dans les années 1980, le bromure avait été retiré de la plupart des médicaments, et les cas d'intoxication au bromure, ou bromisme, ont également diminué.
Cependant, cet ingrédient est toujours présent dans certains médicaments vétérinaires et autres produits de consommation, notamment les compléments alimentaires (https://www.sciencedirect.com/science/article/abs/pii/S0735675722005071), et des cas occasionnels de bromisme surviennent encore aujourd'hui (https://pmc.ncbi.nlm.nih.gov/articles/PMC3550397/). Cet incident pourrait toutefois être le premier empoisonnement au bromure provoqué par l'IA.
Selon le rapport, l'homme s'est rendu aux urgences locales et a déclaré au personnel qu'il avait peut-être été empoisonné par son voisin. Bien que certains de ses examens médicaux se soient bien déroulés, l'homme est devenu agité et paranoïaque, refusant de boire l'eau qu'on lui donnait malgré sa soif. Il a également eu des hallucinations visuelles et auditives et a rapidement développé un épisode psychotique complet. Au milieu de sa psychose, il a tenté de s'échapper, après quoi les médecins l'ont placé en « internement psychiatrique involontaire pour invalidité grave ».
Les médecins lui ont administré des liquides intraveineux et un antipsychotique, et son état a commencé à se stabiliser. Ils ont très tôt soupçonné que le bromisme était à l'origine de sa maladie, et une fois qu'il a retrouvé suffisamment d'énergie pour parler de manière cohérente, ils ont découvert comment le bromisme s'était retrouvé dans son organisme.
L'homme a expliqué aux médecins avoir commencé à prendre du bromure de sodium intentionnellement trois mois plus tôt. Il avait lu des articles sur les effets néfastes d'une consommation excessive de sel de table (chlorure de sodium) sur la santé. Cependant, en consultant la littérature, il n'a trouvé que des conseils sur la réduction de l'apport en sodium.
« Inspiré par ses études de nutrition à l'université », ont écrit les médecins, l'homme a décidé d'essayer de supprimer le chlorure de son alimentation. Il a consulté ChatGPT pour obtenir de l'aide, et on lui a apparemment dit que le chlorure pouvait être remplacé par du bromure en toute sécurité. Après avoir obtenu le feu vert de l'IA, il a commencé à consommer du bromure de sodium acheté en ligne.
Compte tenu de la chronologie des faits, l'homme utilisait probablement ChatGPT 3.5 ou 4.0. Les médecins n'avaient pas accès aux conversations de l'homme ; nous ne saurons donc jamais exactement comment s'est déroulée sa consultation fatidique. Mais lorsqu'ils ont demandé à ChatGPT 3.5 par quel chlorure on pouvait remplacer le chlorure, la réponse incluait le bromure.
Il est possible, voire probable, que l'IA de l'homme ait fait référence à des exemples de remplacement du bromure sans rapport avec l'alimentation, comme pour le nettoyage. Le ChatGPT des médecins a notamment précisé dans sa réponse que le contexte de ce remplacement était important, ont-ils écrit. Mais l'IA n'a jamais non plus averti des dangers de la consommation de bromure, ni demandé pourquoi la personne s'était intéressée à cette question.
Quant à l'homme lui-même, il s'est lentement remis de son épreuve. On lui a finalement retiré son traitement antipsychotique et il est sorti de l'hôpital trois semaines après son admission. Lors d'un suivi de deux semaines, son état demeurait stable.
Les médecins ont écrit que si des outils comme ChatGPT peuvent « établir un lien entre les scientifiques et le public non universitaire, l'IA comporte également le risque de diffuser des informations décontextualisées ». Avec une retenue admirable, ils ont ajouté qu'un expert médical humain n'aurait probablement pas recommandé de passer au bromure à une personne inquiète de sa consommation de sel de table.
Honnêtement, je ne suis pas sûr qu'un être humain aujourd'hui donnerait un tel conseil. C'est pourquoi avoir un ami compétent avec qui échanger nos idées devrait rester essentiel, quelle que soit la dernière version de ChatGPT.