Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3354

Incidents associés

Incident 60821 Rapports
UnitedHealth Accused of Deploying Allegedly Flawed AI to Deny Medical Coverage

Loading...
UnitedHealthcare fait l'objet d'un recours collectif pour utilisation présumée de l'IA pour refuser les réclamations Medicare Advantage
fiercehealthcare.com · 2023

UnitedHealthcare fait face à un éventuel recours collectif suite à des allégations selon lesquelles il aurait utilisé un algorithme pour refuser les demandes de services de soins post-aigus dans le cadre de Medicare Advantage (MA).

Le recours collectif proposé a été déposé lundi par les familles de deux membres décédés de MA, qui soutiennent que l'assureur a déployé « illégalement » la plateforme naviHealth pour refuser aux personnes âgées les soins médicalement nécessaires. Le procès indique que la technologie présente un « taux d'erreur de 90 % ».

Les plaignants allèguent que malgré ce taux d'erreur élevé, UnitedHealth a continué à déployer la technologie parce qu'un très petit nombre de membres, moins de 1 %, font généralement appel des réclamations rejetées.

"Les accusés misent sur l'état des patients, leur manque de connaissances et leur manque de ressources pour faire appel des décisions erronées basées sur l'IA", ont-ils déclaré dans le procès.

La poursuite fait suite à un rapport d'enquête cette semaine de Stat, qui a étudié l'utilisation de NaviHealth. Les employés de UnitedHealthcare ont été poussés à utiliser la technologie pour réduire les coûts, a rapporté Stat.

Dans une déclaration à Fierce Healthcare, un porte-parole de UnitedHealth a déclaré que la plateforme n'était pas utilisée pour prendre des décisions sur la couverture.

"L'outil de prévision naviHealth n'est pas utilisé pour déterminer la couverture. L'outil est utilisé comme guide pour nous aider à informer les prestataires, les familles et les autres soignants du type d'assistance et de soins dont le patient peut avoir besoin à la fois dans l'établissement et après son retour à la maison. ", a déclaré le porte-parole. "Les décisions en matière de couverture sont basées sur les critères de couverture du CMS et les conditions du plan du membre."

"Ce procès n'a aucun fondement et nous nous défendrons vigoureusement", ont-ils déclaré.

Le procès affirme que l'outil de prévision naviHealth détermine l'éligibilité du membre à la couverture des soins post-aigus sur la base de « prédictions rigides et irréalistes de guérison ». L'outil prédit la quantité de soins dont un patient « devrait » avoir besoin, selon le procès, ce qui peut l'amener à outrepasser les déterminations des médecins sur ce que nécessite leur rétablissement.

Grâce à cela, les refus de demandes de soins post-aigus de UnitedHealthcare ont considérablement augmenté, selon la poursuite.

"Le stratagème frauduleux offre aux accusés une manne financière évidente sous la forme de primes d'assurance sans avoir à payer les soins promis, tandis que les personnes âgées sont prématurément expulsées des établissements de soins dans tout le pays ou obligées d'épuiser les économies familiales pour continuer à recevoir les soins médicaux nécessaires, tout cela parce que un modèle d'IA "n'est pas d'accord" avec les déterminations réelles de leurs médecins", ont écrit les plaignants.

Le procès fait également suite à une surveillance accrue de l’utilisation potentielle par les assureurs de l’intelligence artificielle et des algorithmes pour refuser les réclamations des membres. Cigna a également fait l'objet de plusieurs poursuites à propos de son outil PxDx, qui a attiré un examen public plus tôt cette année après qu'un rapport de ProPublica ait affirmé qu'il avait été utilisé pour refuser systématiquement des milliers de demandes, parfois en quelques secondes seulement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd