Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3356

Incidents associés

Incident 60821 Rapports
UnitedHealth Accused of Deploying Allegedly Flawed AI to Deny Medical Coverage

Loading...
Votre assurance maladie utilise-t-elle l’IA pour vous refuser des services ? Le procès affirme que les erreurs ont nui aux aînés.
usatoday.com · 2023

Pendant des années, des décisions cruciales concernant les bénéficiaires d’une couverture médicale ont été prises dans les back-offices des compagnies d’assurance maladie. Aujourd’hui, certaines de ces décisions qui changent la vie sont prises par des programmes d’intelligence artificielle.

C'est du moins l'affirmation des deux familles qui ont poursuivi UnitedHealth Group cette semaine, affirmant que le géant de l'assurance avait utilisé une technologie émergente pour refuser ou raccourcir les séjours de réadaptation de deux hommes âgés dans les mois précédant leur décès.

Ils disent que l'intelligence artificielle de UnitedHealth, ou IA, prend des décisions « rigides et irréalistes » sur ce qu'il faut pour que les patients se rétablissent de maladies graves et leur refuse des soins dans des centres de soins infirmiers et de réadaptation qualifiés qui devraient être couverts par les plans Medicare Advantage, selon une poursuite fédérale déposée au Minnesota par les successions de deux patients âgés du Wisconsin. Le procès, qui vise à obtenir le statut de recours collectif, affirme qu'il est illégal de laisser AI ignorer les recommandations des médecins concernant ces hommes et leurs patients. Les familles affirment que de telles évaluations devraient être effectuées par des professionnels de la santé.

Les familles notent dans la plainte qu'elles pensent que la compagnie d'assurance refuse de soigner les patients âgés qui ne riposteront pas, même si les preuves montrent que l'IA fait un travail médiocre dans l'évaluation des besoins des gens. L'entreprise a utilisé des algorithmes pour déterminer les plans de couverture et ignorer les recommandations des médecins malgré le taux d'erreur étonnamment élevé du programme d'IA, disent-ils.

Plus de 90 % des refus de réclamation des patients ont été annulés par le biais d'appels internes ou d'un juge administratif fédéral, selon des documents judiciaires. Mais en réalité, peu de patients ont contesté les déterminations des algorithmes. Un infime pourcentage de patients - 0,2 % - choisissent de lutter contre les refus de réclamation par le biais du processus d'appel. La grande majorité des personnes assurées par les plans Medicare Advantage de UnitedHealth « paieront de leur poche ou renonceront au reste des soins post-aigus prescrits », indique le procès.

Les avocats représentant les familles poursuivant le géant de l'assurance basé au Minnesota ont déclaré que le taux élevé de refus faisait partie de la stratégie de la compagnie d'assurance.

"Ils placent leurs propres bénéfices sur les personnes avec lesquelles ils sont sous contrat et qu'ils sont ensuite légalement tenus de couvrir", a déclaré Ryan Clarkson, un avocat californien dont le cabinet a déposé plusieurs plaintes contre des entreprises utilisant l'IA. "C'est aussi simple que cela. C'est juste de la cupidité."

UnitedHealth a déclaré à USA TODAY dans un communiqué que le programme d'IA de naviHealth, cité dans le procès, n'est pas utilisé pour déterminer la couverture.

"L'outil est utilisé comme guide pour nous aider à informer les prestataires, les familles et les autres soignants sur le type d'assistance et de soins dont le patient peut avoir besoin à la fois dans l'établissement et après son retour à la maison", a déclaré la société.

Les décisions de couverture sont basées sur les critères des Centers for Medicare & Medicaid Services et sur le plan d'assurance du consommateur, a indiqué la société.

"Ce procès n'a aucun fondement et nous nous défendrons vigoureusement", a déclaré la société.

Les procès de ce type ne sont pas nouveaux. Ils font partie d’un nombre croissant de litiges.

En juillet, le cabinet d'avocats Clarkson a déposé une [cas](https://www.forbes.com/sites/richardnieva/2023/07/24/cigna-sued-over-algorithm-allegedly-used-to-deny-coverage -à des centaines de milliers de patients/?sh=2ac31a384b14) contre CIGNA Healthcare, alléguant que l'assureur avait utilisé l'IA pour automatiser les rejets de réclamations. L'entreprise a également engagé des poursuites contre le créateur de ChatGPT OpenAI et Google.

Les familles paient pour des soins coûteux que l'assureur refuse


Les plaignants dans le procès de cette semaine sont les proches de deux résidents décédés du Wisconsin, Gene B. Lokken et Dale Henry Tetzloff, qui étaient tous deux assurés par les régimes privés Medicare de UnitedHealth.

En mai 2022, Lokken, 91 ans, est tombé chez lui et s'est cassé la jambe et la cheville, nécessitant un bref séjour à l'hôpital suivi d'un mois dans un centre de réadaptation pendant sa guérison. Le médecin de Lokken lui a alors recommandé une thérapie physique afin qu'il puisse retrouver force et équilibre. L'homme du Wisconsin a passé moins de trois semaines en physiothérapie avant que l'assureur ne mette fin à sa couverture et recommande qu'il soit libéré et envoyé en convalescence à son domicile.

Un physiothérapeute a décrit l'état de Lokken comme étant « paralysé » et « faible », mais les appels de sa famille pour la poursuite de la thérapie ont été rejetés, selon le procès.

Sa famille a choisi de poursuivre le traitement malgré le refus. Sans couverture, la famille devait payer entre 12 000 et 14 000 dollars par mois pour environ un an de thérapie dans l'établissement. Lokken est décédé dans cet établissement en juillet 2023.

La famille de l'autre homme a également fait part de ses inquiétudes quant au fait que les services de réadaptation nécessaires avaient été refusés par l'algorithme de l'IA.

Tetzloff se remettait d'un accident vasculaire cérébral en octobre 2022 et ses médecins ont recommandé que l'homme de 74 ans soit transféré d'un hôpital vers un centre de réadaptation pendant au moins 100 jours. L'assureur a d'abord cherché à mettre fin à sa couverture au bout de 20 jours, mais la famille a fait appel. L'assureur a ensuite prolongé le séjour de Tetzloff de 20 jours supplémentaires.

Le médecin de l'homme avait recommandé une thérapie physique et professionnelle supplémentaire, mais sa couverture a pris fin après 40 jours. La famille a dépensé plus de 70 000 $ pour ses soins au cours des 10 mois suivants. Tetzloff a passé ses derniers mois dans une résidence-services, où il est décédé le 11 octobre.

10 appels pour rééduquer une hanche cassée

L'action en justice intervient après que les défenseurs de Medicare ont commencé à exprimer leurs inquiétudes concernant l'utilisation systématique de la technologie de l'IA pour refuser ou réduire les soins aux personnes âgées bénéficiant de régimes privés de Medicare.

En 2022, le Center for Medicare Advocacy a examiné l'utilisation par plusieurs assureurs de programmes d'intelligence artificielle dans les contextes de réadaptation et de santé à domicile. Le rapport du groupe de défense concluait que les programmes d'IA prenaient souvent des décisions de couverture plus restrictives que celles de Medicare. aurait permis et les décisions n’avaient pas le niveau de nuance nécessaire pour évaluer les circonstances uniques de chaque cas.

"Nous avons vu davantage de soins qui auraient été couverts par Medicare traditionnel refusés ou interrompus prématurément", a déclaré David Lipschutz, directeur associé et avocat principal du Center for Medicare Advocacy.

Lipschutz a déclaré que certaines personnes âgées qui feraient appel d'un refus pourraient obtenir un sursis pour ensuite être à nouveau fermées. Il a cité l'exemple d'une femme du Connecticut qui cherchait un séjour de trois mois dans un centre de réadaptation alors qu'elle se remettait d'un chirurgie de remplacement de la hanche. Elle a déposé et gagné 10 appels après qu’un assureur ait tenté à plusieurs reprises de mettre fin à sa couverture et de limiter son séjour.

Importance d’avoir « l’humain au courant »

Les experts juridiques non impliqués dans ces affaires affirment que l’intelligence artificielle est en train de devenir une cible fertile pour les personnes et les organisations qui cherchent à maîtriser ou à façonner l’utilisation des technologies émergentes.

Gary Marchant, directeur de la faculté au Centre pour le droit, la science et l'innovation du Sandra Day O'Connor College of Law de l'Arizona State University, a déclaré qu'une considération importante pour les assureurs maladie et autres déployant des programmes d'IA est de s'assurer que les humains font partie de la décision. processus de fabrication.

Même si les systèmes d’IA peuvent être efficaces et accomplir rapidement des tâches rudimentaires, les programmes eux-mêmes peuvent également commettre des erreurs, a déclaré Marchant.

"Parfois, les systèmes d'IA ne sont pas raisonnables et manquent de bon sens", a déclaré Marchant. "Il faut avoir un humain au courant."

Dans les cas impliquant des compagnies d’assurance utilisant l’IA pour guider les décisions en matière de réclamation, Marchant a déclaré qu’un facteur juridique clé pourrait être la mesure dans laquelle une entreprise s’en remet à un algorithme.

Le procès d'UnitedHealth indique que l'entreprise a limité le « pouvoir discrétionnaire » des travailleurs de s'écarter de l'algorithme. Les employés qui s'écartaient des projections du programme d'IA étaient passibles de mesures disciplinaires ou d'un licenciement, selon le procès.

Marchant a déclaré qu'un facteur à suivre dans les affaires UnitedHealth et les poursuites similaires est la mesure dans laquelle les employés sont tenus de suivre un modèle d'IA.

"Il doit clairement y avoir une opportunité pour le décideur humain de contourner l'algorithme", a déclaré Marchant. "C'est un problème majeur dans le domaine de l'IA et des soins de santé."

Il a déclaré qu'il était important de considérer les conséquences de la manière dont les entreprises configurent leurs systèmes d'IA. Les entreprises devraient réfléchir au degré de déférence qu'elles accordent à un algorithme, sachant que l'IA peut digérer d'énormes quantités de données et être « incroyablement puissante » ainsi que « incroyablement précise », a-t-il déclaré, et les dirigeants devraient également garder à l'esprit que l'IA « parfois peut tout simplement avoir complètement tort. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd