Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2856

Incidents associés

Incident 1247 Rapports
Optum Algorithmic Health Risk Scores Reportedly Underestimated Black Patients' Needs

Loading...
Le régulateur des assurances de New York va sonder l'algorithme Optum pour les préjugés raciaux
fiercehealthcare.com · 2019

Les départements des services financiers et de la santé de New York ont envoyé vendredi une lettre au PDG de UnitedHealth Group, David Wichmann, concernant un algorithme développé par Optum, The Wall Street Journal [rapporté] (https://www.wsj.com/articles/new-york-regulator- sondes-unitedhealth-algorithm-for-racial-bias-11572087601). L'enquête fait suite à une étude publiée dans la revue Science qui a révélé qu'un algorithme utilisé pour attribuer des scores de risque donnait le même niveau de risque aux Noirs comme des patients blancs qui étaient en meilleure santé.

"Ces résultats discriminatoires, intentionnels ou non, sont inacceptables et illégaux à New York", selon la lettre.

L'étude indique que l'algorithme réduit de moitié le nombre de patients noirs nécessitant des soins supplémentaires.

"Le biais se produit parce que l'algorithme utilise les coûts de santé comme indicateur des besoins de santé", indique l'étude. "Moins d'argent est dépensé pour les patients noirs qui ont le même niveau de besoin, et l'algorithme conclut donc à tort que les patients noirs sont en meilleure santé que les patients blancs tout aussi malades."

L'algorithme doit être modifié afin qu'il n'utilise pas le coût comme indicateur des besoins en soins de santé et éliminerait les préjugés raciaux pour prédire qui a besoin de soins supplémentaires, ont ajouté les auteurs.

"En s'appuyant sur les dépenses historiques pour trier et diagnostiquer les patients actuels, votre algorithme semble intrinsèquement donner la priorité aux patients blancs qui ont eu un meilleur accès aux soins de santé que les patients noirs", indique la lettre.

Les régulateurs de New York ont appelé Optum à cesser d'utiliser l'algorithme ou à fournir des preuves pour contredire les affirmations de l'étude.

UnitedHealth Group a déclaré dans un communiqué sur la publication de l'étude qu'il appréciait "le travail des chercheurs et la validation que le modèle de coût était hautement prédictif du coût".

Mais l'algorithme n'est "qu'un des nombreux éléments de données destinés à être utilisés pour sélectionner les patients pour les programmes d'engagement clinique, y compris, surtout, l'expertise du médecin et sa connaissance des besoins individuels de son patient".

L'analyste de l'industrie Cynthia Burghard, qui a mené des recherches sur les technologies de l'information et examiné l'étude scientifique, a déclaré : "La grande question est de savoir s'il s'agit de l'outil ou de la manière dont l'outil a été utilisé ?"

Burghard, directeur de recherche pour les stratégies de transformation informatique des soins de santé basées sur la valeur chez IDC Health Insights, a déclaré que l'étude portait sur l'utilisation de l'algorithme par un centre médical universitaire. Les meilleures pratiques de l'industrie pour l'utilisation de ce type d'algorithme pour dicter qui obtient la gestion des soins impliquent souvent l'utilisation de plusieurs éléments d'information, pas seulement les coûts de santé.

"Il y a beaucoup de nuances dans la santé des gens qui ne se reflètent pas dans les coûts", a-t-elle déclaré, notant que l'algorithme Optum n'est pas une intelligence artificielle mais un système basé sur des règles.

L'utilisation d'algorithmes pour examiner une cohorte de patients est une pratique courante dans le domaine de la santé, des entreprises comme IBM proposant ces outils technologiques, a noté Burghard. Si les hôpitaux et les systèmes de santé cessaient d'utiliser ces outils, cela reviendrait à "jeter le bébé avec l'eau du bain", a-t-elle déclaré.

Elle a ajouté que l'étude souligne l'importance d'impliquer les cliniciens dans les décisions d'achat de technologie lorsque la technologie sera utilisée pour soutenir les décisions cliniques.

Optum, la filiale de services aux fournisseurs, a été un important moteur de revenus pour UnitedHealth.

Le groupe a enregistré 5 milliards de dollars de bénéfices au troisième trimestre de 2019, grâce en grande partie à la solide performance d'Optum, qui a enregistré une croissance à deux chiffres de son chiffre d'affaires et de son bénéfice au cours du trimestre.

Heather Landi a contribué à des reportages supplémentaires sur cette histoire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd