Adam Hart lleva 14 años como enfermero en el Hospital St. Rose Dominican en Henderson, Nevada. Hace unos años, mientras colaboraba en urgencias, escuchaba el informe de la ambulancia sobre una paciente recién llegada —una anciana con la presión arterial peligrosamente baja— cuando una señal de sepsis apareció en el sistema electrónico del hospital.
La sepsis, una reacción potencialmente mortal a una infección, es una de las principales causas de muerte en los hospitales estadounidenses, y el tratamiento temprano es fundamental. La señal de sepsis impulsó al enfermero a cargo a indicarle a Hart que ingresara a la paciente en la habitación de inmediato, le tomara las constantes vitales y comenzara a administrarle líquidos intravenosos. Era el protocolo; en urgencias, eso suele significar rapidez.
Pero cuando Hart examinó a la mujer, vio que tenía un catéter de diálisis debajo de la clavícula. Sus riñones no estaban funcionando correctamente. Advirtió que una infusión rutinaria de líquidos intravenosos podría saturar su sistema y acabar en sus pulmones. La enfermera jefe le dijo que lo hiciera de todos modos debido a la alerta de sepsis generada por el sistema de inteligencia artificial del hospital. Hart se negó.
Un médico escuchó la conversación, que se intensificaba, e intervino. En lugar de líquidos, el médico recetó dopamina para elevar la presión arterial del paciente sin aumentar el volumen, evitando así lo que Hart creía que podría haber provocado una complicación potencialmente mortal.
Lo que más le impactó a Hart fue la coreografía que produjo la alerta generada por IA. Una pantalla instaba a la urgencia, que un protocolo convirtió en una orden; una objeción a pie de cama basada en un razonamiento clínico resultó, al menos en ese momento, un desafío. Nadie actuaba de mala fe. Aun así, la herramienta los obligó a obedecer cuando la evidencia que tenían delante —la paciente y sus riñones comprometidos— exigía exactamente lo contrario. (Un portavoz del hospital afirmó que no podían comentar sobre un caso específico, pero que el hospital considera la IA como "una de las muchas herramientas que respaldan, no reemplazan, la experiencia y el criterio de nuestros equipos de atención médica").
Esta dinámica se está volviendo familiar en el sistema de salud estadounidense. En los últimos años, los hospitales han integrado modelos algorítmicos en la práctica clínica habitual. La atención clínica a menudo se basa en la comparación de los síntomas del paciente con protocolos rígidos, un entorno ideal para la automatización. Para una fuerza laboral agotada, el atractivo de delegar tareas rutinarias como la documentación a la IA es innegable.
Las tecnologías ya implementadas abarcan un espectro que va desde modelos predictivos que calculan puntuaciones de riesgo simples hasta IA con capacidad de agencia que promete una toma de decisiones autónoma, lo que permite a los sistemas ajustar el flujo de oxígeno de un paciente o repriorizar una cola de triaje en urgencias con poca intervención humana. Un proyecto piloto lanzado en Utah hace unos meses utiliza tecnología de chatbot con capacidades de agencia para renovar recetas, una medida que, según sus defensores, otorga a los proveedores más tiempo, aunque las asociaciones de médicos se han opuesto a la eliminación de la supervisión humana. En todo el país, los sistemas de salud utilizan herramientas similares para detectar riesgos, escuchar las visitas de los pacientes de forma ambiental, generar notas clínicas, monitorear a los pacientes mediante dispositivos portátiles, asignar participantes a ensayos clínicos e incluso gestionar la logística de quirófanos y traslados a unidades de cuidados intensivos.
Las enfermeras vieron cómo un producto imperfecto podía convertirse en una política y, luego, en su problema.
La industria busca una visión de atención verdaderamente continua: una infraestructura de toma de decisiones que monitoree a los pacientes entre citas combinando el historial médico (resultados de análisis de laboratorio, imágenes, notas, medicamentos) con datos de la población y con los datos que las personas generan por sí mismas mediante, por ejemplo, dispositivos portátiles y registros de alimentos. Esta infraestructura detecta cambios significativos, envía orientación o avisos, y marca los casos que requieren intervención humana. Los defensores argumentan que este tipo de monitoreo continuo y con uso intensivo de datos está fuera del alcance cognitivo de cualquier profesional humano.
Otros afirman que los profesionales clínicos deben mantenerse al día, utilizando la IA no como piloto automático, sino como una herramienta que les ayude a comprender grandes cantidades de datos. El año pasado, Stanford Medicine lanzó ChatEHR, una herramienta que permite a los médicos clínicos interactuar con los historiales médicos de sus pacientes. Un médico comentó que la herramienta encontró información crucial oculta en los historiales de un paciente con cáncer, lo que ayudó a un equipo de seis patólogos a emitir un diagnóstico definitivo. "Si eso no demuestra el valor de la HCE, no sé qué lo hará", informaron.
Al mismo tiempo, en muchas plantas de hospital, estas promesas digitales a menudo fracasan, según Anaeze Offodile, directora de estrategia del Memorial Sloan Kettering Cancer Center de la ciudad de Nueva York. Señala que algoritmos defectuosos, una implementación deficiente y un bajo retorno de la inversión han provocado el estancamiento de algunos proyectos. En la práctica, el personal de enfermería, encargado de la atención a los pacientes, desconfía cada vez más de las herramientas no validadas. Esta fricción se ha trasladado de las salas a las calles. En los últimos dos años, enfermeras de California y la ciudad de Nueva York han organizado manifestaciones para llamar la atención sobre la incorporación de herramientas algorítmicas no reguladas al sistema sanitario, argumentando que, si bien los hospitales invierten en IA, la atención a pie de cama sigue siendo peligrosamente escasa.
La predicción de la sepsis se ha convertido en un caso de alerta. Hospitales de todo Estados Unidos adoptaron ampliamente el algoritmo de predicción de sepsis de Epic, empresa de tecnología de la información para la salud. Evaluaciones posteriores lo encontraron sustancialmente menos preciso de lo que se promocionaba. Epic afirma que estudios en entornos clínicos han demostrado que su modelo de sepsis mejoró los resultados y que, desde entonces, ha lanzado una segunda versión que, según afirma, funciona mejor. Aun así, las enfermeras vieron cómo un producto imperfecto podía convertirse en política y, luego, en su problema.
El agotamiento, la escasez de personal y el aumento de la violencia en el lugar de trabajo ya están reduciendo la plantilla de enfermería, según una encuesta de enfermería de 2024. Estas presiones se extendieron a las escaleras del Ayuntamiento de Nueva York el pasado noviembre, cuando miembros de la Asociación de Enfermeras del Estado de Nueva York se manifestaron y luego testificaron ante el comité de hospitales del Ayuntamiento. Argumentaron que algunos de los sistemas privados más grandes de la ciudad están invirtiendo dinero en ejecutivos y proyectos de IA, mientras que las unidades hospitalarias siguen careciendo de personal suficiente y el personal de enfermería se enfrenta a crecientes riesgos de seguridad. Al cierre de esta edición a mediados de enero, 15.000 enfermeras de los sistemas hospitalarios de la ciudad de Nueva York estaban en huelga, exigiendo una mayor dotación de personal y mayor protección en el lugar de trabajo.
Los nuevos modelos de monitorización basados en IA suelen llegar a los hospitales con la misma expectación que ha acompañado a la IA en otros sectores. En 2023, UC Davis Health implementó BioButton en su unidad de trasplante de médula ósea oncológica, calificándolo de "transformador". El dispositivo, un pequeño sensor hexagonal de silicona que se coloca en el pecho del paciente, monitorizaba continuamente los signos vitales como la frecuencia cardíaca, la temperatura y los patrones respiratorios.
En planta, generaba con frecuencia alertas difíciles de interpretar para el personal de enfermería. Para Melissa Beebe, enfermera titulada que lleva 17 años trabajando en UC Davis Health, los pings ofrecían poca información útil. "Aquí es donde se volvió realmente problemático", afirma. "Era vago". Las notificaciones indicaban cambios en los signos vitales sin detalles específicos.
Beebe comenta que a menudo seguía alarmas que no llevaban a ninguna parte. "Tengo mis propias alertas internas: 'Algo anda mal con este paciente, quiero vigilarlo', y entonces el BioButton se activaba por sí solo. Estaba exagerando, pero no proporcionaba mucha información".
Como representante sindical de la Asociación de Enfermeras de California en UC Davis Health, Beebe solicitó una conversación formal con la dirección del hospital antes de la implementación de los dispositivos, tal como lo permitía el contrato sindical. "Es simplemente una exageración: '¡Dios mío, esto va a ser tan transformador! ¿Y no tienen mucha suerte de poder hacerlo?'", dice. Sentía que cuando ella y otras enfermeras planteaban preguntas, se las percibía como reticentes a la tecnología. "Soy una enfermera del PORQUÉ. Para entender algo, tengo que saber por qué. ¿Por qué lo hago?".
Entre las preocupaciones del personal de enfermería se encontraba el funcionamiento del dispositivo en diferentes tipos de cuerpo y la rapidez con la que se esperaba que respondieran a las alertas. Beebe afirma que la dirección tenía pocas respuestas claras. En cambio, se les dijo al personal de enfermería que el dispositivo podría ayudar con la detección temprana de accidentes cerebrovasculares hemorrágicos, cuyo riesgo era especialmente alto en los pacientes de su planta. "Pero el problema es que la frecuencia cardíaca, la temperatura y la frecuencia respiratoria, en el caso de un accidente cerebrovascular, serían señales bastante tardías", explica. "En ese momento, uno estaría prácticamente muriendo". Los primeros signos de un accidente cerebrovascular hemorrágico pueden ser dificultad para despertar al paciente, dificultad para hablar o problemas de equilibrio. "Ninguno de estos parámetros se puede controlar con BioButtons".
Al final, UC Davis Health dejó de usar los BioButtons después de probar la tecnología durante aproximadamente un año, explica Beebe. "Lo que estaban descubriendo era que, en los pacientes que estaban realmente enfermos y que se beneficiarían de ese tipo de alerta, el personal de enfermería los detectaba mucho más rápido", explica. (UC Davis Health declaró que probó BioButton junto con los monitores existentes y finalmente decidió no adoptarlo porque sus alertas no ofrecían una ventaja clara sobre la monitorización actual).
Beebe argumenta que el juicio clínico, moldeado por años de formación y experiencia e informado por sutiles señales sensoriales provenientes de equipos técnicos, no se puede automatizar. "No puedo imaginar la cantidad de veces que tengo esa sensación: 'No me siento bien con este paciente'. Podría ser simplemente cómo se ve o se siente su piel". Elven Mitchell, enfermero de cuidados intensivos con 13 años de experiencia en el Hospital Kaiser Permanente de Modesto, California, coincide con esta opinión. "A veces se puede ver a un paciente y, con solo mirarlo, saber que no está bien. No se refleja en los análisis ni en el monitor", afirma. "Tenemos cinco sentidos, y las computadoras solo reciben información".
La atención clínica a menudo depende de la comparación de los síntomas del paciente con protocolos rígidos, un entorno ideal para la automatización.
Los algoritmos pueden mejorar el juicio clínico, afirman los expertos, pero no pueden reemplazarlo. "Los modelos nunca tendrán acceso a todos los datos que posee el proveedor", afirma Ziad Obermeyer, Profesor Asociado Distinguido de Política y Gestión Sanitaria de Blue Cross of California en la Facultad de Salud Pública de la Universidad de California, Berkeley. Los modelos analizan principalmente historiales médicos electrónicos, pero no todo está en el archivo digital. "Y eso resulta ser un montón de información realmente importante, como: ¿Cómo responden a las preguntas? ¿Cómo caminan? Todos estos detalles sutiles que los médicos y el personal de enfermería ven y comprenden sobre los pacientes".
Mitchell, quien también forma parte del equipo de respuesta rápida de su hospital, afirma que a sus colegas les cuesta confiar en las alertas. Calcula que aproximadamente la mitad de las alertas generadas por un equipo de monitoreo centralizado son falsos positivos; sin embargo, la política del hospital exige que el personal de cabecera evalúe cada uno, lo que aleja al personal de enfermería de los pacientes ya identificados como de alto riesgo. (Kaiser Permanente declaró que sus herramientas de monitoreo de IA están diseñadas para apoyar a los profesionales clínicos, y que las decisiones recaen en los equipos de atención, y que los sistemas se prueban rigurosamente y se monitorean continuamente).
"Quizás en 50 años sea más beneficioso, pero tal como está, es un sistema que intenta que funcione", afirma Mitchell. Desearía que hubiera más regulación en este ámbito, ya que las decisiones sobre atención médica pueden, en casos extremos, ser de vida o muerte.
En las entrevistas para este artículo, las enfermeras enfatizaron constantemente que no se oponen a la tecnología en el hospital. Muchas dijeron que reciben con agrado las herramientas que están cuidadosamente validadas y que mejoran la atención de forma demostrable. Lo que las ha hecho recelosas, argumentan, es la rápida implementación de modelos de IA muy publicitados, cuyo rendimiento en entornos reales no cumple con las promesas. Implementar herramientas no validadas puede tener consecuencias duraderas. "Se está generando desconfianza en una generación de profesionales clínicos y proveedores", advierte un experto, que solicitó el anonimato por temor a las repercusiones profesionales.
Las preocupaciones van más allá de los proveedores privados. Los propios hospitales a veces eluden las medidas de seguridad que antes regían la introducción de nuevas tecnologías médicas, afirma Nancy Hagans, enfermera y presidenta de la Asociación de Enfermeras del Estado de Nueva York.
Los riesgos no son meramente teóricos. Obermeyer, profesor de la Escuela de Salud Pública de Berkeley, descubrió que algunos algoritmos utilizados en la atención al paciente resultaron ser racistas. "Se utilizan para evaluar a entre 100 y 150 millones de personas cada año para este tipo de decisiones, por lo que es un fenómeno muy extendido", afirma. "Esto plantea la pregunta de por qué no contamos con un sistema para detectar estas cosas antes de que se implementen y empiecen a afectar todas estas decisiones importantes", añade, comparando la introducción de herramientas de IA en la atención médica con el desarrollo de fármacos. A diferencia de los fármacos, no existe un único responsable de la IA; los hospitales a menudo deben validar las herramientas por sí solos.
En la cabecera del paciente, la opacidad tiene consecuencias: si la alerta es difícil de explicar, las consecuencias siguen siendo responsabilidad del profesional sanitario. Si un dispositivo funciona de forma diferente en distintos pacientes (omitiendo a algunos, sobreseñalando a otros), el médico también lo hereda.
El revuelo en torno a la IA ha complicado aún más las cosas. En los últimos dos años, las herramientas de escucha basadas en IA que registran las interacciones médico-paciente y generan una nota clínica para documentar la visita se extendieron rápidamente por el sector sanitario. Muchas instituciones las adquirieron con la esperanza de que ahorraran tiempo a los médicos. Muchos profesionales valoran no tener que tomar notas mientras hablan con los pacientes, pero la evidencia emergente sugiere que las mejoras en la eficiencia pueden ser modestas. Estudios han reportado ahorros de tiempo que van desde insignificantes hasta 22 minutos al día. "Todos se apresuraron a decir que estas cosas eran mágicas; nos ahorrarían horas. Ese ahorro no se materializó", afirma Nigam Shah, profesor de medicina en la Universidad de Stanford y científico jefe de datos de Stanford Health Care. "¿Cuál es el retorno de la inversión de ahorrar seis minutos al día?".
Experiencias similares han hecho que algunas instituciones de élite se muestren reticentes a confiar únicamente en empresas externas para herramientas algorítmicas. Hace unos años, Stanford Health Care, Mount Sinai Health System en la ciudad de Nueva York y otras empresas incorporaron el desarrollo de IA internamente para poder desarrollar sus propias herramientas, probar herramientas de proveedores, optimizarlas y presentarlas ante los médicos. "Se trata de una redefinición estratégica de la IA en el ámbito sanitario como una capacidad institucional en lugar de una tecnología de consumo", afirma Shah. En Mount Sinai, este cambio ha implicado centrarse menos en los algoritmos en sí y más en la adopción y la confianza, buscando generar confianza con el personal sanitario e integrando nuevas herramientas en el flujo de trabajo.
Las herramientas de IA también deben explicar por qué recomiendan algo e identificar las señales específicas que activaron la alerta, no solo presentar una puntuación. Los hospitales deben prestar atención a las interacciones hombre-máquina, afirma Suchi Saria, profesora asociada John C. Malone de Ciencias de la Computación en la Universidad Johns Hopkins y directora del Laboratorio de Aprendizaje Automático y Atención Médica de la universidad. Argumenta que los modelos de IA deberían funcionar más como miembros de un equipo bien capacitado. "No funcionará si este nuevo miembro del equipo es disruptivo. La gente no lo usará", afirma Saria. "Si este nuevo miembro es ininteligible, la gente no lo usará".
Sin embargo, muchas instituciones no consultan ni cocrean con sus enfermeras y demás personal de primera línea al considerar o desarrollar nuevas herramientas de IA que se utilizarán en la atención al paciente. "Sucede constantemente", afirma Shah, de Stanford. Recuerda que inicialmente dotó a su equipo de ciencia de datos con médicos, no enfermeras, hasta que el director de enfermería de su institución se opuso. Ahora cree que la perspectiva de las enfermeras es indispensable. "Pregunten primero a las enfermeras, después a los médicos, y si el médico y la enfermera no están de acuerdo, confíen en la enfermera, porque saben lo que realmente está sucediendo", afirma.
Para incluir a más personal en el proceso de desarrollo de herramientas de IA, algunas instituciones han implementado un enfoque ascendente, además de uno descendente. "Muchas de las mejores ideas provienen de personas cercanas al trabajo, por lo que creamos un proceso donde cualquier persona de la empresa puede presentar una idea", afirma Robbie Freeman, exenfermero de cabecera y actual director de transformación digital en Mount Sinai. Una enfermera especializada en el cuidado de heridas tuvo la brillante idea de crear una herramienta de IA para predecir qué pacientes son propensos a desarrollar úlceras por presión. El programa tiene una alta tasa de adopción, afirma Freeman, en parte porque esta enfermera está capacitando con entusiasmo a sus colegas.
Freeman afirma que el objetivo no es reemplazar el juicio clínico, sino crear herramientas que los profesionales clínicos puedan usar: herramientas que se expliquen por sí mismas. En la versión que desean las enfermeras, la alerta es una invitación a analizar con más detalle, no un gestor digital poco fiable.
La nueva frontera llegó al laboratorio de cateterismo cardíaco de Mount Sinai el año pasado con un nuevo sistema de IA agente llamado Sofiya. En lugar de que las enfermeras llamen a los pacientes antes de un procedimiento de colocación de stent para darles instrucciones y responder preguntas, Sofiya ahora les llama. El agente de IA, diseñado con una voz suave y tranquilizadora y representado como una modelo femenina con uniforme médico en recortes promocionales de tamaño natural, ahorró al Mount Sinai más de 200 horas de enfermería en cinco meses, según Annapoorna Kini, directora del laboratorio de cateterismo. Sin embargo, algunas enfermeras no están de acuerdo con Sofiya. El pasado noviembre, en una reunión del Ayuntamiento de la Ciudad de Nueva York, Denash Forbes, enfermera con 37 años de experiencia en Mount Sinai, testificó que el trabajo de Sofiya aún debe ser revisado por enfermeras para garantizar su precisión.
Incluso Freeman admite que aún queda mucho camino por recorrer hasta que esta IA con función de agente proporcione una experiencia integrada y fluida. O tal vez se una a las filas de los pilotos de IA fallidos. Mientras la industria busca la eficiencia de los agentes autónomos, necesitamos una infraestructura para probar algoritmos. Por ahora, la seguridad del paciente sigue anclada en aquello que la IA no puede replicar: la intuición del profesional clínico. Como en el caso de Adam Hart, quien rechazó un veredicto digital para proteger los pulmones de un paciente, el valor último de la enfermera en la era de la IA puede no ser su capacidad de seguir la indicación sino su voluntad de ignorarla.