Incidentes Asociados

UnitedHealthcare, el proveedor de seguros de salud más grande de EE. UU., está utilizando un algoritmo de inteligencia artificial llamado nH Predict cuyas predicciones tremendamente inexactas se están utilizando para negar cobertura de salud a pacientes gravemente enfermos al reducir el tiempo que pueden pasar en cuidados prolongados, alega una [nueva demanda]. ](https://cdn.arstechnica.net/wp-content/uploads/2023/11/class-action-v-unitedhealth-and-navihealth-1.pdf).
La demanda, presentada esta semana en el Tribunal de Distrito de Minnesota, Estados Unidos, fue presentada por el patrimonio de dos personas fallecidas a quienes UnitedHealth les negó la cobertura. Los demandantes argumentan que la compañía de seguros de salud debería haber sabido cuán inexacta era su IA y que el proveedor incumplió su contrato al utilizarla.
Sus quejas están corroboradas por una investigación de Stat News sobre las prácticas internas de UnitedHealth en su filial NaviHealth, que descubrió que la empresa obligaba a los empleados a adherirse inquebrantablemente a las proyecciones cuestionables del algoritmo de IA sobre cuánto tiempo los pacientes podrían permanecer en cuidados prolongados.
Al menos había un lado positivo en la sala de juntas: según se informa, la tacaña IA ahorró a la empresa unos cientos de millones de dólares que de otro modo se habría visto obligada a gastar en la atención de los pacientes, según Stat.
Aunque las afirmaciones sobre propiedades saludables rara vez se apelan, cuando lo hacen, alrededor del 90 por ciento de ellas se revierten, según la demanda. Eso sugiere que la IA es notoriamente inexacta y que, al depositar una confianza indebida en ella, UnitedHealth está estafando a innumerables pacientes vulnerables y quitándoles su atención médica.
"Si UnitedHealth está utilizando algoritmos de [NaviHealth] como evangelio... eso no es una toma de decisiones clínicas", dijo a Stat Spencer Perlman, analista de mercados de atención médica. "Eso es agregar datos y usar un algoritmo para tomar una decisión que no tiene nada que ver con el individuo en sí".
UnitedHealth respondió en un comunicado a Stat.
"Las afirmaciones de que NaviHealth utiliza o incentiva a los empleados a utilizar una herramienta para negar atención son falsas", se lee. "Las decisiones de cobertura adversas las toman los directores médicos y se basan en los criterios de cobertura de Medicare, no en una herramienta o un objetivo de desempeño vinculado a una única métrica de calidad".
Sin embargo, los documentos y testimonios de los empleados parecen corroborar la cuestionable toma de decisiones de la IA de UnitedHealth.
En un caso, el sistema nH Predict asignó apenas 20 días de rehabilitación a una mujer mayor que quedó paralizada después de sufrir un derrame cerebral, solo la mitad del promedio para los pacientes con discapacidad cerebral, según Stat. Un hombre anciano, legalmente ciego, con problemas cardíacos y renales, solo recibió 16 días sorprendentemente insuficientes para recuperarse.
¿Qué podría hacer que NH Predict esté tan equivocado? Basa sus proyecciones en la duración de las estancias de unos seis millones de pacientes anteriores en la base de datos de la empresa. A primera vista, eso puede parecer sensato, pero significa que la IA está heredando los errores y la reducción de costos de esas decisiones anteriores y, sobre todo, no tiene en cuenta factores exigentes tanto clínicos como prácticos.
"La duración de la estancia no es una variable biológica", dijo a Stat Ziad Obermeyer, médico de la Universidad de California, Berkeley, e investigador del sesgo algorítmico.
"La gente se ve obligada a abandonar el [hogar de ancianos] porque no pueden pagar o porque su seguro es una mierda", añadió. "Y así, el algoritmo básicamente aprende todas las desigualdades de nuestro sistema actual".
Sin embargo, UnitedHealth sólo haría que sus estándares fueran más extremos. En 2022, los administradores de casos recibieron instrucciones de mantener las estadías en hogares de ancianos dentro del tres por ciento de la proyección de AI.
El año que viene, sin embargo, se redujo a menos del uno por ciento, lo que efectivamente dio a los empleados cero margen de maniobra. Si los administradores de casos no lograban alcanzar ese objetivo, eran sancionados o despedidos, según Stat.
"Al final de mi tiempo en NaviHealth me di cuenta de que no soy una defensora, solo soy una fuente de ingresos para esta empresa", dijo a Stat Amber Lynch, ex administradora de casos de NaviHealth que fue despedida a principios de este año. "Se trata de dinero y datos", añadió. "Le quita la dignidad al paciente, y eso lo odié".
En conjunto, suena como un ejemplo sombrío de cómo la aparente objetividad de la IA puede usarse para encubrir prácticas turbias y explotar a las personas en su estado más vulnerable.