Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3356

Incidentes Asociados

Incidente 60821 Reportes
UnitedHealth Accused of Deploying Allegedly Flawed AI to Deny Medical Coverage

Loading...
¿Su aseguradora de salud utiliza IA para negarle servicios? La demanda dice que los errores perjudicaron a los mayores.
usatoday.com · 2023

Durante años, las decisiones vitales sobre quién obtenía cobertura de atención médica se tomaban en las oficinas administrativas de las compañías de seguros médicos. Ahora, algunas de esas decisiones que cambian la vida las toman programas de inteligencia artificial.

Al menos ese es el argumento de las dos familias que demandaron a UnitedHealth Group esta semana, diciendo que el gigante de los seguros utilizó tecnología emergente para negar o acortar las estadías de rehabilitación de dos hombres mayores en los meses previos a su muerte.

Dicen que la inteligencia artificial de UnitedHealth, o IA, está tomando determinaciones "rígidas y poco realistas" sobre lo que se necesita para que los pacientes se recuperen de enfermedades graves y negándoles atención en centros de rehabilitación y enfermería especializada que deberían estar cubiertos por los planes Medicare Advantage, según una demanda federal presentada en Minnesota por los herederos de dos pacientes ancianos de Wisconsin. La demanda, que busca estatus de demanda colectiva, dice que es ilegal permitir que la IA anule las recomendaciones de los médicos para estos hombres y pacientes como ellos. Las familias dicen que evaluaciones como esa deberían ser realizadas por profesionales médicos.

Las familias señalan en la demanda que creen que la compañía de seguros está negando atención a pacientes ancianos que no se defienden a pesar de que la evidencia muestra que la IA está haciendo un trabajo mediocre al evaluar las necesidades de las personas. Dicen que la compañía utilizó algoritmos para determinar los planes de cobertura y anular las recomendaciones de los médicos a pesar de la sorprendentemente alta tasa de error del programa de IA.

Según documentos judiciales, más del 90% de las denegaciones de reclamaciones de pacientes fueron anuladas mediante apelaciones internas o un juez federal de derecho administrativo. Pero en realidad, pocos pacientes cuestionaron las determinaciones de los algoritmos. Un pequeño porcentaje de pacientes (0,2%) opta por luchar contra las denegaciones de reclamaciones a través del proceso de apelación. La gran mayoría de las personas aseguradas por los planes Medicare Advantage de UnitedHealth "pagarán los costos de bolsillo o renunciarán al resto de la atención post-aguda prescrita", dice la demanda.

Los abogados que representan a las familias que demandan al gigante asegurador con sede en Minnesota dijeron que la alta tasa de denegaciones es parte de la estrategia de la compañía de seguros.

"Están anteponiendo sus propios beneficios a las personas con las que tienen contrato y que luego están legalmente obligados a cubrir", dijo Ryan Clarkson, un abogado de California cuyo bufete de abogados ha presentado varios casos contra empresas que utilizan IA. "Es así de simple. Es sólo codicia".

UnitedHealth dijo a USA TODAY en un comunicado que el programa de inteligencia artificial de naviHealth, que se cita en la demanda, no se utiliza para tomar determinaciones de cobertura.

"La herramienta se utiliza como guía para ayudarnos a informar a los proveedores, las familias y otros cuidadores sobre qué tipo de asistencia y atención puede necesitar el paciente tanto en el centro como después de regresar a casa", dijo la compañía.

Las decisiones de cobertura se basan en los criterios de los Centros de Servicios de Medicare y Medicaid y el plan de seguro del consumidor, dijo la compañía.

"Esta demanda no tiene fundamento y nos defenderemos enérgicamente", afirmó la empresa.

Los juicios de este tipo no son nuevos. Son parte de un creciente cuerpo de litigios.

En julio, el bufete de abogados Clarkson presentó un [caso](https://www.forbes.com/sites/richardnieva/2023/07/24/cigna-sued-over-algorithm-allegedly-used-to-deny-coverage -a-cientos-de-miles-de-pacientes/?sh=2ac31a384b14) contra CIGNA Healthcare, alegando que la aseguradora empleó inteligencia artificial para automatizar el rechazo de reclamaciones. La firma también ha presentado casos contra el fabricante de ChatGPT OpenAI y Google.

Las familias pagan por cuidados costosos que la aseguradora niega


Los demandantes en la demanda de esta semana son los familiares de dos residentes fallecidos de Wisconsin, Gene B. Lokken y Dale Henry Tetzloff, ambos asegurados por los planes privados de Medicare de UnitedHealth.

En mayo de 2022, Lokken, de 91 años, se cayó en su casa y se rompió la pierna y el tobillo, lo que requirió una breve estadía en el hospital seguida de un mes en un centro de rehabilitación mientras sanaba. El médico de Lokken recomendó entonces fisioterapia para que pudiera recuperar fuerza y equilibrio. El hombre de Wisconsin pasó menos de tres semanas en fisioterapia antes de que la aseguradora cancelara su cobertura y recomendara que fuera dado de alta y enviado a recuperarse a casa.

Un fisioterapeuta describió la condición de Lokken como "paralizada" y "débil", sin embargo, las apelaciones de su familia para que continuaran con la cobertura de la terapia fueron rechazadas, según la demanda.

Su familia optó por continuar con el tratamiento a pesar de la negativa. Sin cobertura, la familia tuvo que pagar entre 12.000 y 14.000 dólares al mes por aproximadamente un año de terapia en el centro. Lokken murió en las instalaciones en julio de 2023.

La familia del otro hombre también expresó su preocupación de que el algoritmo de IA hubiera negado los servicios de rehabilitación necesarios.

Tetzloff se estaba recuperando de un derrame cerebral en octubre de 2022 y sus médicos recomendaron que el hombre de 74 años fuera trasladado de un hospital a un centro de rehabilitación durante al menos 100 días. La aseguradora inicialmente intentó poner fin a su cobertura después de 20 días, pero la familia apeló. A continuación, la aseguradora prorrogó la estancia de Tetzloff otros 20 días.

El médico del hombre había recomendado terapia física y ocupacional adicional, pero su cobertura terminó después de 40 días. La familia gastó más de 70.000 dólares en su cuidado durante los siguientes 10 meses. Tetzloff pasó sus últimos meses en un centro de vida asistida, donde murió el 11 de octubre.

10 apelaciones para rehabilitar una fractura de cadera

La acción legal se produce después de que los defensores de Medicare comenzaran a expresar preocupaciones sobre el uso rutinario de tecnología de inteligencia artificial para negar o reducir la atención a adultos mayores en planes privados de Medicare.

En 2022, el Centro de Defensa de Medicare examinó el uso de programas de inteligencia artificial por parte de múltiples aseguradoras en entornos de rehabilitación y atención médica domiciliaria. El [informe] del grupo de defensa (https://medicareadvocacy.org/wp-content/uploads/2022/01/AI-Tools-In-Medicare.pdf) concluyó que los programas de IA a menudo tomaban decisiones de cobertura que eran más restrictivas que las que Medicare habría permitido y las decisiones carecieron del nivel de matices necesario para evaluar las circunstancias únicas de cada caso.

"Vimos que más atención que habría estado cubierta por el Medicare tradicional se negó directamente o se canceló prematuramente", dijo David Lipschutz, director asociado y abogado senior de políticas del Centro para la Defensa de Medicare.

Lipschutz dijo que algunos adultos mayores que apelan los rechazos podrían obtener un indulto sólo para ser cerrados nuevamente. Citó el ejemplo de una mujer de Connecticut que solicitó una estadía de tres meses en un centro de rehabilitación mientras se recuperaba de una cirugía de reemplazo de cadera. Presentó y ganó 10 apelaciones después de que una aseguradora intentara repetidamente rescindir su cobertura y limitar su estadía.

Importancia de tener "humanos al tanto"

Los expertos legales que no están involucrados en estos casos dijeron que la inteligencia artificial se está convirtiendo en un objetivo fértil para personas y organizaciones que buscan frenar o dar forma al uso de la tecnología emergente.

Gary Marchant, director de la facultad del Centro de Derecho, Ciencia e Innovación de la Facultad de Derecho Sandra Day O'Connor de la Universidad Estatal de Arizona, dijo que una consideración importante para las aseguradoras de salud y otros que implementan programas de inteligencia artificial es asegurarse de que los humanos sean parte de la decisión. proceso de fabricación.

Si bien los sistemas de inteligencia artificial pueden ser eficientes y completar tareas rudimentarias rápidamente, los programas por sí solos también pueden cometer errores, dijo Marchant.

"A veces los sistemas de IA no son razonables y no tienen sentido común", afirmó Marchant. "Tienes que tener un ser humano al tanto".

En los casos en los que las compañías de seguros utilizan la IA para guiar las decisiones de reclamaciones, Marchant dijo que un factor legal clave podría ser cuánto difiere una empresa de un algoritmo.

La demanda de UnitedHealth afirma que la empresa limitó la "discreción" de los trabajadores para desviarse del algoritmo. Los empleados que se desviaron de las proyecciones del programa de IA enfrentaron medidas disciplinarias o despidos, según la demanda.

Marchant dijo que un factor a seguir en los casos de UnitedHealth y demandas similares es qué tan estrechamente se requiere que los empleados sigan un modelo de IA.

"Claramente, tiene que haber una oportunidad para que el ser humano que decide anule el algoritmo", dijo Marchant. "Ese es un gran problema en la IA y la atención sanitaria".

Dijo que es importante considerar las consecuencias de cómo las empresas configuran sus sistemas de IA. Las empresas deberían pensar en cuánta deferencia le dan a un algoritmo, sabiendo que la IA puede digerir enormes cantidades de datos y ser "increíblemente poderosa" además de "increíblemente precisa", dijo, y los líderes también deberían tener en cuenta que la IA "a veces puede estar completamente equivocado."

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd