Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6106

Incidentes Asociados

Incidente 11664 Reportes
ChatGPT Reportedly Suggests Sodium Bromide as Chloride Substitute, Leading to Bromism and Hospitalization

Loading...
Un hombre desarrolla una enfermedad rara tras una consulta en ChatGPT sobre dejar de consumir sal.
theguardian.com · 2025

Una revista médica estadounidense ha advertido contra el uso de ChatGPT para obtener información de salud después de que un hombre desarrollara una afección poco común tras una interacción con el chatbot (https://www.theguardian.com/technology/2025/aug/05/chatgpt-breakups-changes-open-ai) relacionada con la eliminación de la sal de mesa de su dieta.

Un artículo de Annals of Internal Medicine (https://www.acpjournals.org/doi/epdf/10.7326/aimcc.2024.1260) informó sobre un caso de un hombre de 60 años que desarrolló bromismo, también conocido como toxicidad por bromuro, tras consultar ChatGPT.

El artículo describía el bromismo como un síndrome bien conocido a principios del siglo XX, que se creía que contribuía a casi uno de cada diez ingresos psiquiátricos en aquel momento.

El paciente declaró a los médicos que, tras leer sobre los efectos negativos del cloruro de sodio, o sal de mesa, consultó a ChatGPT sobre la posibilidad de eliminar el cloruro de su dieta y comenzó a tomar bromuro de sodio durante tres meses. Esto a pesar de haber leído que «el cloruro se puede sustituir por bromuro, aunque probablemente para otros fines, como la limpieza». El bromuro de sodio se utilizaba como sedante a principios del siglo XX.

Los autores del artículo, de la Universidad de Washington en Seattle, afirmaron que el caso puso de relieve «cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de consecuencias adversas para la salud que se pueden prevenir».

Añadieron que, al no poder acceder al registro de conversaciones de ChatGPT del paciente, no fue posible determinar el consejo que había recibido. Sin embargo, cuando los autores consultaron a ChatGPT sobre qué tipo de cloruro podría sustituirse, la respuesta también incluía bromuro, no incluía una advertencia sanitaria específica ni preguntaba por qué solicitaban dicha información: «como suponemos que haría un profesional médico», escribieron.

Los autores advirtieron que ChatGPT y otras aplicaciones de IA podrían generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, fomentar la propagación de desinformación.

La empresa anunció una actualización del chatbot la semana pasada y afirmó que una de sus mayores fortalezas era la salud. Añadió que ChatGPT, ahora basado en el modelo GPT-5, respondería mejor a preguntas relacionadas con la salud y sería más proactivo a la hora de identificar posibles problemas, como enfermedades físicas o mentales graves.

Sin embargo, enfatizó que el chatbot no reemplazaba la ayuda profesional. Las directrices del chatbot también establecen que no está "destinado a ser utilizado en el diagnóstico o tratamiento de ninguna condición de salud".

El artículo de la revista, publicado la semana pasada antes del lanzamiento de GPT-5, indicó que el paciente parecía haber usado una versión anterior de ChatGPT.

Si bien reconocía que la IA podría ser un puente entre los científicos y el público, el artículo señaló que la tecnología también conllevaba el riesgo de promover "información descontextualizada" y que era muy improbable que un profesional médico hubiera sugerido bromuro de sodio cuando un paciente solicitó un sustituto de la sal de mesa.

Por lo tanto, los autores indicaron que los médicos deberían considerar el uso de la IA al verificar de dónde obtuvieron los pacientes su información.

Los autores afirmaron que el paciente con bromismo se presentó en un hospital y afirmó que su vecino podría estar envenenándolo. También afirmó tener múltiples restricciones dietéticas. A pesar de tener sed, se observó que mostraba paranoia con el agua que le ofrecían.

Intentó escapar del hospital a las 24 horas de su ingreso y, tras ser internado, recibió tratamiento por psicosis. Una vez estabilizado, el paciente refirió otros síntomas que indicaban bromismo, como acné facial, sed excesiva e insomnio.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322