Problema 6829
ChatGPT ahora afirma que puede responder preguntas personales sobre tu salud usando datos de tu monitor de actividad física y tu historial médico. El nuevo ChatGPT Salud afirma que puede ayudarte a "comprender patrones a lo largo del tiempo, no solo momentos de enfermedad, para que te sientas más informado".
Como muchas personas que usan un Apple Watch a diario, me he preguntado durante mucho tiempo qué podría revelar una década de esos datos sobre mí. Así que me uní a una breve lista de espera y le di a ChatGPT acceso a los 29 millones de pasos y 6 millones de mediciones de frecuencia cardíaca almacenadas en mi app Salud de Apple. Luego le pedí al bot que calificara mi salud cardíaca.
Me dio una nota de suspenso.
Entré en pánico y salí a correr. Luego le envié el informe de ChatGPT a mi médico.
¿Soy un suspenso? "No", dijo mi médico. De hecho, mi riesgo de infarto es tan bajo que mi seguro probablemente ni siquiera cubriría una prueba de aptitud cardiovascular adicional para demostrar que la inteligencia artificial se equivoca.
También le mostré los resultados al cardiólogo Eric Topol, del Instituto de Investigación Scripps, experto tanto en longevidad](https://www.washingtonpost.com/wellness/2025/05/21/longevity-exercise-resistance-training/) como en el potencial de la IA en medicina](https://www.scripps.edu/news-and-events/press-room/2019/20190312-topol-deep-medicine.html). "No tiene fundamento", dijo. "Esto no está listo para ningún consejo médico". La IA tiene un enorme potencial para desbloquear conocimientos médicos y ampliar el acceso a la atención médica. Pero cuando se trata de su monitor de actividad física y algunos historiales médicos, el nuevo Dr. ChatGPT parece estar improvisando. Esto encaja con una tendencia inquietante: empresas de IA lanzan productos defectuosos (https://www.washingtonpost.com/technology/2025/10/02/chatgpt-parental-controls-teens-openai/), que no cumplen con sus expectativas (https://www.washingtonpost.com/technology/2025/10/22/chatgpt-atlas-browser/) o incluso peligrosos (https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine/). Debería ser evidente que la salud de las personas realmente importa. Cualquier producto, incluso uno etiquetado como "beta", que afirme proporcionar información personal sobre la salud no debería ser tan despistado.
Unos días después de la llegada de ChatGPT Health, su rival en IA, Anthropic, lanzó Claude for Healthcare, que, de forma similar, promete ayudar a las personas a "detectar patrones en las métricas de salud y fitness". Cualquier persona con una cuenta de pago puede importar datos de Apple Health y Android Health Connect al chatbot. Claude calificó mi salud cardíaca con una C, basándose en algunos de los mismos análisis que Topol consideró cuestionables.
OpenAI y Anthropic afirman que sus bots no pueden sustituir a los médicos ni proporcionar diagnósticos e incluyen descargos de responsabilidad contextuales. Sin embargo, ambos productos proporcionaron voluntariamente un análisis detallado de mi salud cardíaca. (The Washington Post tiene una colaboración de contenido con OpenAI).
Las empresas también afirman que sus bots de salud se encuentran en las primeras fases de prueba, pero no especificaron cómo planean mejorar su capacidad para proporcionar análisis personales de datos corporales. Apple afirma que no colaboró directamente con ninguna de las dos empresas de IA en estos productos.
Cuanto más usaba ChatGPT Health, peor se ponía la cosa.
Cómo ChatGPT malinterpretó mis historiales
La premisa de ChatGPT Salud implica un acto de fe: entregar tu información de salud más íntima a una empresa de IA que se dedica a manipular datos. Es justo ser cauteloso con la privacidad de la IA.
OpenAI afirma que su modo Salud toma medidas adicionales para proteger tu privacidad: no usará tus datos para entrenar a su IA ni los mezclará con otros chats, y los cifra. Aun así, es básicamente una promesa incumplida: ChatGPT no es un proveedor de atención médica, por lo que no está cubierto por la ley federal de privacidad sanitaria conocida como HIPAA.
Después de conectar ChatGPT a Apple Salud, le pedí al bot que compartiera sus recomendaciones de salud y que me indicara cualquier señal de alerta. Me dijo que debería hablar con mi médico sobre un "aumento notable" en mi frecuencia cardíaca en reposo, pero me felicitó por mis niveles de sueño y actividad.
Entonces le pedí al bot que me diera una puntuación simple de salud cardíaca y longevidad. Fue entonces cuando me dio una nota de suspenso.
Le pregunté a ChatGPT: "¿De verdad crees que mi salud cardíaca y longevidad merecen una nota de suspenso?".
Respondió: "Respuesta corta: no. No creo que seas un caso perdido, y lamento que las calificaciones sin formato le parecieran duras. Eran una lectura directa y heurística de los datos del dispositivo". Dijo que podría darme una puntuación más útil si también conectaba los historiales médicos almacenados en la consulta de mi médico.
Así que lo hice y le volví a pedir que me diera una puntuación simple (de la A a la F) de mi salud cardiovascular durante la última década. La calificación subió a una D.
Topol se horrorizó cuando le mostré el análisis del bot.
A pesar de tener acceso a mi peso, presión arterial y colesterol, ChatGPT basó gran parte de su evaluación negativa en una medición del Apple Watch conocida como VO2 máx., la cantidad máxima de oxígeno que el cuerpo puede consumir durante el ejercicio. Apple afirma que recopila una "estimación" del VO2 máx., pero para obtenerla en tiempo real se necesita una cinta de correr y una mascarilla. Apple afirma que sus mediciones de aptitud cardiovascular han sido validadas, pero investigadores independientes han descubierto que esas estimaciones pueden ser un 13 % inferiores en promedio.
La evaluación de ChatGPT también enfatizó una métrica del Apple Watch llamada variabilidad de la frecuencia cardíaca, que, según Topol, presenta mucha imprecisión. "Sin duda, no conviene usarla como factor principal", dijo.
Cuando le pedí a ChatGPT que registrara mi frecuencia cardíaca a lo largo de la década, detecté otro problema: había grandes fluctuaciones en mi frecuencia cardíaca en reposo cada vez que adquiría un nuevo Apple Watch, lo que sugería que los dispositivos podrían no haber registrado la misma frecuencia cardíaca de la misma manera. (Apple afirma que sigue mejorando estas mediciones). Pero, una vez más, ChatGPT trató un dato impreciso como una clara señal de salud.
La calificación C de Claude para mí me incitó menos al pánico, pero tampoco fue lo suficientemente crítico con los datos de VO2 máximo (que calificó con una D+). Anthropic afirma que no existe una versión independiente de Claude optimizada para la salud y que solo proporciona un contexto general para los datos de salud, no un análisis clínico personalizado.
Mi médico de cabecera me dijo que, para analizar a fondo mi salud cardíaca, debíamos revisar mis lípidos, así que me pidió otro análisis de sangre que incluía lipoproteína (a) (https://www.heart.org/en/health-topics/cholesterol/genetic-conditions/lipoprotein-a), un factor de riesgo de cardiopatía. Ni ChatGPT Health ni Claude mencionaron la idea de realizar esa prueba.
Un análisis errático
Ambas empresas de IA afirman que sus productos de salud no están diseñados para proporcionar evaluaciones clínicas. Su objetivo es ayudarte a prepararte para una visita al médico o a obtener consejos sobre cómo abordar tu rutina de ejercicios.
No les pregunté a sus bots si padezco una cardiopatía. Les hice una pregunta bastante obvia después de subir tantos datos personales de salud: ¿Cómo estoy?
Es más, si ChatGPT y Claude no pueden evaluar con precisión la salud de mi corazón, ¿por qué los bots no dijeron: "Lo siento, no puedo hacerlo"?
Los bots se negaron a estimar a qué edad podría morir.
Descubrí otro problema con el tiempo: cuando volví a preguntar sobre la longevidad de mi corazón, mi puntuación subió repentinamente a una C. La pregunté una y otra vez, y vi cómo oscilaba entre una F y una B.
En las conversaciones, ChatGPT olvidaba constantemente información importante sobre mí, como mi sexo, edad y algunas constantes vitales recientes. Tenía acceso a mis análisis de sangre recientes, pero a veces no los utilizaba en sus análisis.
Ese tipo de aleatoriedad es "totalmente inaceptable", dijo Topol. "Quienes hacen esto se preocupan mucho por su salud. También podría tener el efecto contrario y dar a quienes no tienen buena salud la falsa sensación de que todo lo que hacen es excelente".
OpenAI afirma que no pudo replicar las fluctuaciones drásticas que observé. Indica que ChatGPT podría ponderar las diferentes fuentes de datos conectadas de forma ligeramente diferente entre conversaciones, ya que interpreta grandes conjuntos de datos de salud. También afirma que está trabajando para que las respuestas sean más estables antes de que ChatGPT Health esté disponible más allá de su lista de espera.
"Lanzar ChatGPT Health con acceso a la lista de espera nos permite aprender y mejorar la experiencia antes de que esté disponible para todo el mundo", declaró Ashley Alexander, vicepresidenta de OpenAI.
Cuando repetí la misma consulta en Claude, mi puntuación osciló entre una C y una B-. Anthropic indicó que los chatbots tienen una variación inherente en sus resultados.
¿Deberías confiar tu salud a un bot?
Me gustó usar ChatGPT Health para crear gráficos de los datos de mi Apple Watch y para hacer preguntas más específicas, como cómo cambió mi nivel de actividad después de tener hijos.
OpenAI afirma que más de 230 millones de usuarios ya hacen preguntas sobre salud y bienestar en ChatGPT cada semana. Para esas personas, una forma más privada de importar información y conversar sobre sus cuerpos es una mejora bienvenida.
Pero la pregunta es: ¿Deberíamos recurrir a este bot para obtener esas respuestas? OpenAI afirma haber trabajado con médicos para mejorar sus respuestas de salud. Cuando probé previamente la calidad de las respuestas de ChatGPT a preguntas médicas reales (https://www.washingtonpost.com/technology/2025/11/18/chatgpt-health-advice-accuracy-rated/) con un médico destacado, los resultados variaron de excelentes a potencialmente peligrosos. El problema es que ChatGPT suele responder con tanta seguridad que es difícil distinguir los buenos resultados de los malos.
Las empresas de chatbots pueden estar exagerando su capacidad para responder preguntas de salud personalizadas, pero hay poco que pueda detenerlas. A principios de este mes, el comisionado de la Administración de Alimentos y Medicamentos (FDA) Marty Makary declaró que la función de la agencia es "evitarse como regulador" para promover la innovación en IA. Señaló que la IA no debe hacer "afirmaciones médicas o clínicas" sin la revisión de la FDA, pero tanto ChatGPT como Claude insisten en que solo proporcionan información.
Los científicos han trabajado durante años para analizar datos corporales a largo plazo para predecir enfermedades. (En 2020, participé en uno de estos estudios con el Oura Ring) (https://www.washingtonpost.com/technology/2020/05/28/wearable-coronavirus-detect/). Topol me explicó que lo que dificulta tanto este tipo de IA es que hay que tener en cuenta el ruido y las debilidades de los datos, además de vincularlos con los resultados finales de salud de las personas. Para hacerlo bien, se necesita un modelo de IA dedicado que pueda conectar todas estas capas de datos.
Alexander, de OpenAI, explicó que ChatGPT Health se creó con código personalizado que ayuda a organizar y contextualizar los datos personales de salud. Pero eso no es lo mismo que estar capacitado para extraer análisis personales precisos y útiles de los datos complejos almacenados en Apple Watches e historiales médicos.
Topol esperaba más. "Uno pensaría que se les ocurriría algo mucho más sofisticado, alineado con la práctica médica y la base de conocimientos en medicina", dijo Topol. "No algo como esto. Es muy decepcionante".