Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6694

Incidentes Asociados

Incidente 12812 Reportes
Alleged Harmful Health Outcomes Following Reported Use of Purported ChatGPT-Generated Medical Advice in Hyderabad

Loading...
ChatGPT no es tu médico: médicos de Hyderabad advierten que pacientes se vieron perjudicados por consejos de IA
completeaitraining.com · 2025

Médicos instan a sus pacientes a dejar de usar chatbots de IA como sustituto de la atención médica

Los profesionales sanitarios de Hyderabad están observando un fuerte aumento de pacientes que siguen los consejos genéricos de un chatbot y pagan un alto precio. Dos casos recientes subrayan el riesgo: suspender la medicación crítica postrasplante y seguir una dieta con restricción de sal que desencadenó un desequilibrio electrolítico grave.

La conclusión para los equipos sanitarios es simple: las herramientas de IA pueden ayudar con la educación general, pero no pueden reemplazar el juicio clínico, el contexto longitudinal ni un plan de atención basado en las comorbilidades y el riesgo.

Qué ocurrió en Hyderabad

Según se informa, una receptora de trasplante de riñón de 30 años suspendió sus antibióticos después de que un chatbot de IA le indicara que su "creatinina normal" significaba que ya no necesitaba los medicamentos. En cuestión de semanas, la función del injerto colapsó, la creatinina se disparó y volvió a la diálisis después de la cirugía. Los nefrólogos senior del NIMS destacaron un patrón preocupante: incluso pacientes con un alto nivel de formación actúan según los resultados de los chatbots sin consultar con sus equipos de atención.

En otro caso, un hombre de 62 años con diabetes experimentó una rápida pérdida de peso y un nivel peligrosamente bajo de sodio tras seguir un plan de chatbot que recomendaba reducir la sal por completo. Como señaló un nefrólogo del gobierno: «Los consejos generales ignoran al paciente que tienes delante». Un informe independiente de Nueva York describió a un hombre hospitalizado tras sustituir la sal de mesa por bromuro de sodio basándose en una indicación en línea: un ejemplo de cómo se filtró un consejo tóxico y no clínico.

Por qué falla el asesoramiento genérico de IA en entornos clínicos

Los chatbots no detectan contraindicaciones, interacciones farmacológicas, protocolos de trasplante ni la trayectoria del historial clínico de un paciente. Interpretan información aislada y producen respuestas fiables, incluso cuando la evidencia es débil o falta contexto. Esta deficiencia puede convertir los consejos aparentemente aceptables en perjudiciales.

  • Pasan por alto los protocolos de trasplante y oncología, donde la adherencia es innegociable. - Interpretan erróneamente los análisis de laboratorio sin líneas de tendencia ni correlación clínica.
  • Ilusionan los hechos y citan directrices obsoletas con autoridad.
  • No hay rendición de cuentas: no hay deber de cuidado, consentimiento informado ni seguimiento.

Medidas prácticas para médicos y administradores

  • Preguntar con antelación: "¿Ha utilizado alguna aplicación o herramienta de IA para obtener asesoramiento desde su última visita?". Documentar las respuestas.
  • Establecer una regla fija: no se permiten cambios de medicación, dosis ni dieta sin la aprobación del médico, especialmente en pacientes postrasplante, cardíacos, endocrinos y oncológicos.
  • Incluir una frase breve en los resúmenes de alta: "Antes de modificar la medicación o la dieta basándose en consejos en línea o de IA, llame a nuestra clínica".
  • Utilizar la retroalimentación para regímenes de alto riesgo (inmunosupresores, insulina, anticoagulantes). Confirmar qué harán los pacientes en casa.
  • Ofrecer recursos educativos seguros y explicar por qué: los materiales dirigidos al paciente, revisados por el equipo, superan a los fragmentos de chatbots. - Crear una ruta de triaje: si un paciente trae un resultado del chatbot, revíselo durante la consulta o mediante un breve mensaje en el portal en lugar de ignorarlo.
  • Política de equipo para el uso de IA por parte del personal: solo presencial, nunca recomendaciones específicas para el paciente sin verificación; registrar las fuentes y las decisiones humanas finales.
  • Identificar los laboratorios en riesgo por trucos dietéticos caseros (p. ej., sodio, potasio) y establecer umbrales para una comunicación rápida.

Cómo hablar con los pacientes sobre IA sin aislarlos

  • Validar primero: "Es genial que seas proactivo. Alineemos esto con tu condición y medicación".
  • Aclarar el riesgo: "El consejo general no ve tus análisis, historial ni plan de trasplante. Ahí es donde ocurre el daño".
  • Dar una acción clara: "Si una aplicación sugiere un cambio, envíanoslo. Confirmaremos qué es seguro".
  • Ofrecer alternativas: indicar folletos, portales o clases grupales aprobados y adaptados a su condición.

Recordatorios clínicos para situaciones de alto riesgo

  • Trasplante: Reforzar la adherencia absoluta a los inmunosupresores y adyuvantes; cualquier cambio debe involucrar al equipo de trasplante.
  • Riesgo de hiponatremia: Vigilar las tendencias extremas de "alimentación limpia" o de consumo cero de sal; informar sobre los síntomas y cuándo llamar.
  • Personas mayores y polifarmacia: Revisar proactivamente los consejos que han recopilado entre las visitas.

Recursos

  • Guía de la OMS sobre ética y gobernanza de la IA para la salud
  • MedlinePlus: Resumen de la hiponatremia

Capacitación de su equipo en IA responsable

Si su clínica evalúa la IA para tareas administrativas o de atención al paciente, invierta en capacitación estructurada que enfatice la verificación, el sesgo y la seguridad, antes de cualquier contacto con el paciente. Una línea base compartida evita el uso improvisado y los mensajes contradictorios a los pacientes.

  • Cursos de IA responsable por puesto de trabajo para equipos que desean usar herramientas sin comprometer la atención.

En resumen: mantenga la IA en su carril. Úselo para educar, redactar y apoyar, no para reemplazar el razonamiento clínico que mantiene seguros a los pacientes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd