Registro de citas para el Incidente 124

Description: Optum's algorithm deployed by a large academic hospital was revealed by researchers to have under-predicted the health needs of black patients, effectively de-prioritizing them in extra care programs relative to white patients with the same health burden.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Optum e implementado por unnamed large academic hospital, perjudicó a Black patients.

Estadísticas de incidentes

ID
124
Cantidad de informes
7
Fecha del Incidente
2019-10-24
Editores
Sean McGregor, Khoa Lam
Un algoritmo de atención médica ofreció menos atención a los pacientes negros
wired.com · 2019

El cuidado de algunos de los estadounidenses más enfermos se decide en parte por algoritmo. Una nueva investigación muestra que el software que guía la atención de decenas de millones de personas privilegia sistemáticamente a los pacientes …

El sesgo racial en un algoritmo médico favorece a los pacientes blancos sobre los pacientes negros más enfermos
washingtonpost.com · 2019

Un algoritmo ampliamente utilizado que predice qué pacientes se beneficiarán de la atención médica adicional subestima drásticamente las necesidades de salud de los pacientes negros más enfermos, lo que amplifica las disparidades raciales d…

Millones de personas negras afectadas por prejuicios raciales en algoritmos de atención médica
nature.com · 2019

Un algoritmo ampliamente utilizado en los hospitales de EE. UU. para asignar atención médica a los pacientes ha discriminado sistemáticamente a las personas negras, según un análisis exhaustivo.

El estudio, publicado en Science el 24 de oct…

El regulador de seguros de Nueva York investigará el algoritmo de Optum por prejuicios raciales
fiercehealthcare.com · 2019

Los departamentos de Salud y Servicios Financieros de Nueva York enviaron una carta al CEO de UnitedHealth Group, David Wichmann, el viernes sobre un algoritmo desarrollado por Optum, The Wall Street Journal [informó] (https://www.wsj.com/a…

Estos algoritmos miran los rayos X y de alguna manera detectan tu raza
wired.com · 2021

Se están gastando millones de dólares para desarrollar un software de inteligencia artificial que lea radiografías y otros exámenes médicos con la esperanza de que pueda detectar cosas que los médicos buscan pero que a veces pasan por alto,…

'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médica
statnews.com · 2022

La inteligencia artificial y los algoritmos médicos están profundamente entrelazados con nuestro moderno sistema de atención médica. Estas tecnologías imitan los procesos de pensamiento de los médicos para tomar decisiones médicas y están d…

Los algoritmos están tomando decisiones sobre la atención médica, lo que solo puede empeorar el racismo médico
aclu.org · 2022

La inteligencia artificial (IA) y los sistemas algorítmicos de toma de decisiones, algoritmos que analizan cantidades masivas de datos y hacen predicciones sobre el futuro, están afectando cada vez más la vida cotidiana de los estadounidens…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents