Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2652

Incidents associés

Incident 1247 Rapports
Optum Algorithmic Health Risk Scores Reportedly Underestimated Black Patients' Needs

Loading...
« Le racisme est le plus ancien algorithme américain » : comment les préjugés s'infiltrent dans l'IA des soins de santé
statnews.com · 2022

L'intelligence artificielle et les algorithmes médicaux sont étroitement liés à notre système de santé moderne. Ces technologies imitent les processus de pensée des médecins pour prendre des décisions médicales et sont conçues pour aider les prestataires à déterminer qui a besoin de soins. Mais un gros problème avec l'intelligence artificielle est qu'elle reproduit très souvent les préjugés et les angles morts des humains qui les créent.

Les chercheurs et les médecins ont averti que les algorithmes utilisés pour déterminer qui obtient les greffes de rein, chirurgies cardiaques et [diagnostics de cancer du sein](https:// www.statnews.com/2021/02/11/breast-cancer-disparities-artificial-intelligence-fda/) affichent des préjugés raciaux. Ces problèmes peuvent conduire à des soins préjudiciables qui, dans certains cas, peuvent mettre en péril la santé de millions de patients.

Alors, comment le biais s'infiltre-t-il exactement dans ces algorithmes ? Et que peut-on faire pour l'empêcher ?

Dans cet épisode, nous entendons Casey Ross, le correspondant national des technologies de la santé de STAT, parler de ses reportages sur les préjugés raciaux dans l'IA. Chris Hemphill, le vice-président de l'IA appliquée et de la croissance chez Actium Health, nous parle de l'essor de l'IA responsable dans les soins de santé. Ziad Obermeryer, médecin urgentiste et chercheur à l'UC Berkeley School of Public Health, nous explique comment son équipe a largement découvert les biais dans un algorithme utilisé dans notre système de soins de santé et un cas où l'IA a été utilisée pour corriger une injustice en matière de soins de santé.

Une transcription de cet épisode est disponible ici.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd