Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2652

Incidentes Asociados

Incidente 1247 Reportes
Optum Algorithmic Health Risk Scores Reportedly Underestimated Black Patients' Needs

Loading...
'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médica
statnews.com · 2022

La inteligencia artificial y los algoritmos médicos están profundamente entrelazados con nuestro moderno sistema de atención médica. Estas tecnologías imitan los procesos de pensamiento de los médicos para tomar decisiones médicas y están diseñadas para ayudar a los proveedores a determinar quién necesita atención. Pero un gran problema con la inteligencia artificial es que muy a menudo replica los sesgos y los puntos ciegos de los humanos que los crean.

Investigadores y médicos han advertido que los algoritmos utilizados para determinar quién recibe trasplantes de riñón, cirugías de corazón y [diagnósticos de cáncer de mama](https:// www.statnews.com/2021/02/11/breast-cancer-disparities-artificial-intelligence-fda/) muestran prejuicios raciales. Esos problemas pueden conducir a una atención perjudicial que, en algunos casos, puede poner en peligro la salud de millones de pacientes.

Entonces, ¿cómo se filtra exactamente el sesgo en estos algoritmos? ¿Y qué se puede hacer para prevenirlo?

En este episodio, escuchamos a Casey Ross, corresponsal nacional de tecnología de la salud de STAT, sobre sus informes sobre prejuicios raciales en la IA. Chris Hemphill, vicepresidente de IA aplicada y crecimiento en Actium Health, nos cuenta sobre el auge de la IA responsable en el cuidado de la salud. Ziad Obermeryer, médico de urgencias e investigador de la Escuela de Salud Pública de UC Berkeley, nos explica cómo su equipo encontró sesgos en un algoritmo ampliamente utilizado en nuestro sistema de atención médica y una instancia en la que se utilizó la IA para corregir una injusticia en la atención médica.

Una transcripción de este episodio está disponible aquí.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd