Incidents associés

L'intelligence artificielle et les algorithmes médicaux sont étroitement liés à notre système de santé moderne. Ces technologies imitent les processus de pensée des médecins pour prendre des décisions médicales et sont conçues pour aider les prestataires à déterminer qui a besoin de soins. Mais un gros problème avec l'intelligence artificielle est qu'elle reproduit très souvent les préjugés et les angles morts des humains qui les créent.
Les chercheurs et les médecins ont averti que les algorithmes utilisés pour déterminer qui obtient les greffes de rein, chirurgies cardiaques et [diagnostics de cancer du sein](https:// www.statnews.com/2021/02/11/breast-cancer-disparities-artificial-intelligence-fda/) affichent des préjugés raciaux. Ces problèmes peuvent conduire à des soins préjudiciables qui, dans certains cas, peuvent mettre en péril la santé de millions de patients.
Alors, comment le biais s'infiltre-t-il exactement dans ces algorithmes ? Et que peut-on faire pour l'empêcher ?
Dans cet épisode, nous entendons Casey Ross, le correspondant national des technologies de la santé de STAT, parler de ses reportages sur les préjugés raciaux dans l'IA. Chris Hemphill, le vice-président de l'IA appliquée et de la croissance chez Actium Health, nous parle de l'essor de l'IA responsable dans les soins de santé. Ziad Obermeryer, médecin urgentiste et chercheur à l'UC Berkeley School of Public Health, nous explique comment son équipe a largement découvert les biais dans un algorithme utilisé dans notre système de soins de santé et un cas où l'IA a été utilisée pour corriger une injustice en matière de soins de santé.
Une transcription de cet épisode est disponible ici.