Incidentes Asociados
Un estudio de caso publicado este mes ofrece una historia con moraleja, ideal para nuestros tiempos modernos. Médicos detallan cómo un hombre experimentó una psicosis causada por un veneno tras seguir consejos dietéticos guiados por IA.
Médicos de la Universidad de Washington documentaron el episodio real de Black Mirror en Annals of Internal Medicine: Clinical Cases. Según se informa, el hombre se envenenó por el bromuro que había ingerido durante tres meses por recomendación de ChatGPT. Afortunadamente, su condición mejoró con el tratamiento y se recuperó satisfactoriamente.
Los compuestos de bromuro se usaban comúnmente a principios del siglo XX para tratar diversos problemas de salud, desde el insomnio hasta la ansiedad. Sin embargo, con el tiempo, se comprendió que el bromuro podía ser tóxico en dosis altas o crónicas e, irónicamente, causar problemas neuropsiquiátricos. Para la década de 1980, el bromuro se había eliminado de la mayoría de los medicamentos, y con él, los casos de intoxicación por bromuro, o bromismo, disminuyeron.
Aun así, el ingrediente persiste en algunos medicamentos veterinarios y otros productos de consumo, incluyendo suplementos dietéticos (https://www.sciencedirect.com/science/article/abs/pii/S0735675722005071), e incluso hoy en día se producen casos ocasionales de bromismo (https://pmc.ncbi.nlm.nih.gov/articles/PMC3550397/). Sin embargo, este incidente podría ser el primer caso de intoxicación por bromuro provocado por IA.
Según el informe, el hombre acudió a urgencias locales y les dijo al personal que posiblemente su vecino lo estaba envenenando. Aunque algunos de sus exámenes médicos estaban bien, el hombre se volvió agitado y paranoico, negándose a beber el agua que le daban, a pesar de tener sed. También experimentó alucinaciones visuales y auditivas y pronto desarrolló un episodio psicótico grave. En medio de su psicosis, intentó escapar, tras lo cual los médicos lo internaron en un hospital psiquiátrico involuntario por discapacidad grave.
Los médicos le administraron fluidos intravenosos y un antipsicótico, y comenzó a estabilizarse. Sospecharon desde el principio que el bromismo era el causante de su enfermedad, y una vez que recuperó la consciencia y pudo hablar con coherencia, descubrieron exactamente cómo había llegado a su organismo.
El hombre contó a los médicos que había empezado a tomar bromuro de sodio intencionadamente tres meses antes. Había leído sobre los efectos negativos para la salud de consumir demasiada sal de mesa (cloruro de sodio). Sin embargo, al consultar la literatura médica, solo encontró consejos sobre cómo reducir la ingesta de sodio.
"Inspirado por sus estudios universitarios de nutrición", escribieron los médicos, el hombre decidió intentar eliminar el cloruro de su dieta. Consultó con ChatGPT en busca de ayuda y, al parecer, le dijeron que podía sustituir el cloruro por bromuro de forma segura. Tras recibir el visto bueno de la IA, comenzó a consumir bromuro de sodio comprado en línea.
Dada la cronología del caso, es probable que el hombre hubiera estado usando ChatGPT 3.5 o 4.0. Los médicos no tuvieron acceso a sus registros de chat, por lo que nunca sabremos con exactitud cómo se desarrolló su fatídica consulta. Pero cuando le preguntaron a ChatGPT 3.5 con qué se podía reemplazar el cloruro, la respuesta incluía bromuro.
Es posible, incluso probable, que la IA del hombre se refiriera a ejemplos de reemplazo de bromuro que no tenían nada que ver con la dieta, como la limpieza. Cabe destacar que el ChatGPT de los médicos indicó en su respuesta que el contexto de este reemplazo era importante, escribieron. Sin embargo, la IA tampoco advirtió sobre los peligros del consumo de bromuro, ni preguntó por qué la persona estaba interesada en esta pregunta en primer lugar.
En cuanto al hombre, se recuperó lentamente de su terrible experiencia. Finalmente, le retiraron la medicación antipsicótica y le dieron el alta hospitalaria tres semanas después del ingreso. En una visita de seguimiento de dos semanas, se mantuvo estable.
Los médicos escribieron que, si bien herramientas como ChatGPT pueden "tender un puente entre los científicos y la población no académica, la IA también conlleva el riesgo de difundir información descontextualizada". Con admirable moderación, añadieron que un experto médico probablemente no le habría recomendado cambiar a bromuro a alguien preocupado por su consumo de sal de mesa.
Sinceramente, no estoy seguro de que ningún ser humano vivo hoy en día dé ese consejo. Y por eso, tener un buen amigo con quien intercambiar nuestras ideas debería seguir siendo esencial, independientemente de la última versión de ChatGPT.