Incidentes Asociados

Un hombre consultó ChatGPT antes de cambiar su dieta. Tres meses después, tras mantener el cambio de dieta de forma constante, acudió a urgencias con nuevos síntomas psiquiátricos preocupantes, como paranoia y alucinaciones.
Resultó que el hombre de 60 años padecía bromismo, un síndrome provocado por la sobreexposición crónica al bromuro o a su pariente cercano, el bromo. En este caso, el hombre había estado consumiendo bromuro de sodio que había comprado en línea.
El martes 5 de agosto se publicó un informe sobre el caso de este hombre en la revista Annals of Internal Medicine Clinical Cases.
Live Science contactó con OpenAI, el desarrollador de ChatGPT, para informarle sobre este caso. Un portavoz dirigió al periodista a las condiciones de servicio de la empresa, que establecen que sus servicios no están destinados al diagnóstico ni al tratamiento de ninguna afección médica, y a sus condiciones de uso, que establecen: «No debe confiar en los resultados de nuestros servicios como única fuente de información veraz o objetiva, ni como sustituto del asesoramiento profesional». El portavoz añadió que los equipos de seguridad de OpenAI buscan reducir el riesgo al usar los servicios de la empresa y capacitar a los productos para que inciten a los usuarios a buscar asesoramiento profesional. En los siglos XIX y XX, el bromuro se usaba ampliamente en medicamentos con y sin receta (OTC) (https://pmc.ncbi.nlm.nih.gov/articles/instance/3550397/pdf/13181_2009_Article_BF03161228.pdf), incluyendo sedantes, anticonvulsivos y somníferos. Sin embargo, con el tiempo, se hizo evidente que la exposición crónica (https://jamanetwork.com/journals/jama/fullarticle/307736), por ejemplo, a través del abuso de estos medicamentos, causaba bromismo.
Este "toxicodromo" —un síndrome desencadenado por la acumulación de toxinas— puede causar síntomas neuropsiquiátricos, como psicosis, agitación, manía y delirios, así como problemas de memoria, pensamiento y coordinación muscular. El bromuro puede desencadenar estos síntomas porque, con la exposición prolongada, se acumula en el cuerpo y altera la función neuronal.
En las décadas de 1970 y 1980, los organismos reguladores estadounidenses eliminaron varias formas de bromuro de los medicamentos de venta libre, incluido el bromuro de sodio. Las tasas de bromismo disminuyeron significativamente a partir de entonces, y la afección sigue siendo relativamente poco frecuente en la actualidad. Sin embargo, todavía se presentan casos ocasionales, algunos de los cuales se relacionan con suplementos dietéticos que contienen bromuro adquiridos en línea (https://www.sciencedirect.com/science/article/abs/pii/S0735675722005071).
Antes del caso reciente del hombre, había estado leyendo sobre los efectos negativos para la salud del consumo excesivo de sal de mesa, también llamada cloruro de sodio. "Le sorprendió encontrar solo literatura relacionada con la reducción del sodio en la dieta", en lugar de la reducción del cloruro, señaló el informe. Inspirado por sus estudios universitarios de nutrición, decidió realizar un experimento personal para eliminar el cloruro de su dieta.
(Cabe destacar que el cloruro es importante para mantener un volumen sanguíneo y una presión arterial saludables, y pueden surgir problemas de salud si los niveles de cloruro en sangre bajan o suben demasiado.)
El paciente consultó ChatGPT, ya sea ChatGPT 3.5 o 4.0, según la cronología del caso. Los autores del informe no tuvieron acceso al registro de conversaciones del paciente, por lo que se desconoce la redacción exacta que generó el modelo de lenguaje extenso (LLM). Sin embargo, el paciente informó que ChatGPT indicaba que el cloruro se puede sustituir por bromuro, por lo que sustituyó todo el cloruro de sodio de su dieta por bromuro de sodio. Los autores señalaron que este cambio probablemente funciona en el contexto del uso de bromuro de sodio para la limpieza, en lugar de su uso en la dieta.
Para simular lo que podría haber sucedido con su paciente, los médicos del hombre intentaron preguntar a ChatGPT 3.5 con qué cloruro se podía reemplazar, y también recibieron una respuesta que incluía bromuro. El LLM señaló que "el contexto importa", pero no proporcionó una advertencia sanitaria específica ni buscó más contexto sobre el motivo de la pregunta, "como suponemos que haría un profesional médico", escribieron los autores.
Recuperación del bromismo
Después de tres meses de consumir bromuro de sodio en lugar de sal de mesa, el hombre acudió a urgencias preocupado por la posibilidad de que su vecino lo estuviera envenenando. Sus análisis de laboratorio en ese momento mostraron una acumulación de dióxido de carbono en la sangre, así como un aumento de la alcalinidad (lo opuesto a la acidez).
También parecía tener niveles elevados de cloruro en la sangre, pero niveles normales de sodio. Tras una investigación más exhaustiva, se reveló que se trataba de un caso de "pseudohipercloremia", lo que significa que la prueba de laboratorio de cloruro arrojó un resultado falso debido a que otros compuestos en la sangre —en concreto, grandes cantidades de bromuro— habían interferido con la medición. Tras consultar la literatura médica y el Centro de Control de Envenenamiento, los médicos del hombre determinaron que el diagnóstico más probable era bromismo.
Tras ser ingresado para un monitoreo y reposición de electrolitos, el hombre dijo tener mucha sed, pero que estaba paranoico con el agua que le ofrecieron. Tras un día entero en el hospital, su paranoia se intensificó y comenzó a experimentar alucinaciones. Intentó escapar del hospital, lo que resultó en un internamiento psiquiátrico involuntario, durante el cual comenzó a recibir un antipsicótico.
Las constantes vitales del hombre se estabilizaron tras recibir líquidos y electrolitos, y a medida que su estado mental mejoraba con el antipsicótico, pudo informar a los médicos sobre el uso de ChatGPT. También notó síntomas adicionales que había notado recientemente, como acné facial y pequeñas protuberancias rojas en la piel, que podrían ser una reacción de hipersensibilidad al bromuro. También notó insomnio, fatiga, problemas de coordinación muscular y sed excesiva, "lo que sugiere aún más bromismo", escribieron sus médicos.
Se le redujo gradualmente la dosis del antipsicótico durante tres semanas y luego se le dio de alta del hospital. Se mantuvo estable en una revisión dos semanas después.
"Si bien es una herramienta con gran potencial para conectar a los científicos con la población no académica, la IA también conlleva el riesgo de difundir información descontextualizada", concluyeron los autores del informe. "Es muy improbable que un experto médico hubiera mencionado el bromuro de sodio al enfrentarse a un paciente que buscaba un sustituto viable del cloruro de sodio".
Enfatizaron que, "a medida que aumenta el uso de herramientas de IA, los proveedores deberán considerar esto al evaluar dónde sus pacientes consumen información de salud". Para sumarse a las preocupaciones planteadas por el informe de caso, un grupo diferente de científicos probó recientemente seis LLM, incluido ChatGPT, al hacer que los modelos interpretaran notas clínicas escritas por médicos. Descubrieron que los LLM son altamente susceptibles a ataques de alucinaciones adversarias, lo que significa que a menudo generan información clínica falsa que supone riesgos cuando se utilizan sin medidas de seguridad. Aplicar correcciones de ingeniería puede reducir la tasa de errores, pero no los elimina, según los investigadores. Esto destaca otra forma en que los LLM podrían introducir riesgos en la toma de decisiones médicas.