Incidentes Asociados

La inteligencia artificial y los algoritmos médicos están profundamente entrelazados con nuestro moderno sistema de atención médica. Estas tecnologías imitan los procesos de pensamiento de los médicos para tomar decisiones médicas y están diseñadas para ayudar a los proveedores a determinar quién necesita atención. Pero un gran problema con la inteligencia artificial es que muy a menudo replica los sesgos y los puntos ciegos de los humanos que los crean.
Investigadores y médicos han advertido que los algoritmos utilizados para determinar quién recibe trasplantes de riñón, cirugías de corazón y [diagnósticos de cáncer de mama](https:// www.statnews.com/2021/02/11/breast-cancer-disparities-artificial-intelligence-fda/) muestran prejuicios raciales. Esos problemas pueden conducir a una atención perjudicial que, en algunos casos, puede poner en peligro la salud de millones de pacientes.
Entonces, ¿cómo se filtra exactamente el sesgo en estos algoritmos? ¿Y qué se puede hacer para prevenirlo?
En este episodio, escuchamos a Casey Ross, corresponsal nacional de tecnología de la salud de STAT, sobre sus informes sobre prejuicios raciales en la IA. Chris Hemphill, vicepresidente de IA aplicada y crecimiento en Actium Health, nos cuenta sobre el auge de la IA responsable en el cuidado de la salud. Ziad Obermeryer, médico de urgencias e investigador de la Escuela de Salud Pública de UC Berkeley, nos explica cómo su equipo encontró sesgos en un algoritmo ampliamente utilizado en nuestro sistema de atención médica y una instancia en la que se utilizó la IA para corregir una injusticia en la atención médica.
Una transcripción de este episodio está disponible aquí.