Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 172: El modelo de puntuación de riesgo de NarxCare supuestamente carecía de validación y estaba entrenado con datos con alto riesgo de sesgo.

Traducido por IA
Descripción:
Traducido por IA
El algoritmo de riesgo de sobredosis de NarxCare, que carece de validación por pares, utiliza datos sensibles como consultas médicas, recetas y posiblemente información genética, lo que genera sesgos significativos contra las mujeres y los pacientes negros. Factores como el abuso sexual y los antecedentes penales exacerban los estigmas y las disparidades, lo que a menudo resulta en la denegación injustificada de analgésicos necesarios. La prueba genética AvertD, recientemente aprobada, presenta problemas similares, lo que complica aún más y potencialmente perjudica las decisiones sobre tratamientos médicos.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Appriss developed an AI system deployed by Appriss , NarxCare y AvertD, which harmed American physicians , American pharmacists , American patients of minority groups y American patients.

Estadísticas de incidentes

ID
172
Cantidad de informes
3
Fecha del Incidente
2020-07-01
Editores
Sean McGregor, Khoa Lam, Daniel Atherton
Applied Taxonomies
GMF, MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident OccurrenceEl dolor era insoportable. Entonces, ¿por qué los médicos la rechazaron?Artificial Intelligence May Influence Whether You Can Get Pain MedicationSay Hello to Your Addiction Risk Score — Courtesy of the Tech Industry
El dolor era insoportable. Entonces, ¿por qué los médicos la rechazaron?

El dolor era insoportable. Entonces, ¿por qué los médicos la rechazaron?

wired.com

Artificial Intelligence May Influence Whether You Can Get Pain Medication

Artificial Intelligence May Influence Whether You Can Get Pain Medication

kffhealthnews.org

Say Hello to Your Addiction Risk Score — Courtesy of the Tech Industry

Say Hello to Your Addiction Risk Score — Courtesy of the Tech Industry

nytimes.com

El dolor era insoportable. Entonces, ¿por qué los médicos la rechazaron?
wired.com · 2021
Traducido por IA

UNA TARDE DE julio de 2020, una mujer llamada Kathryn fue al hospital con un dolor insoportable. Una estudiante de posgrado en psicología de 32 años en Michigan, Kathryn vivía con endometriosis, una condición agonizante que hace que las cél…

Artificial Intelligence May Influence Whether You Can Get Pain Medication
kffhealthnews.org · 2023

Elizabeth Amirault had never heard of a Narx Score. But she said she learned last year the tool had been used to track her medication use.

During an August 2022 visit to a hospital in Fort Wayne, Indiana, Amirault told a nurse practitioner …

Say Hello to Your Addiction Risk Score — Courtesy of the Tech Industry
nytimes.com · 2024

Before Dr. Bobby Mukkamala --- an ear, nose, and throat specialist in Michigan --- prescribed postsurgical opioids recently, he checked state records of his patient's existing controlled substance prescriptions, as legally required. A score…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Arkansas's Opaque Algorithm to Allocate Health Care Excessively Cut Down Hours for Beneficiaries

Arkansas's Opaque Algorithm to Allocate Health Care Excessively Cut Down Hours for Beneficiaries

Jan 2016 · 2 informes
Uber AV Killed Pedestrian in Arizona

Uber AV Killed Pedestrian in Arizona

Mar 2018 · 25 informes
AI Tools Failed to Sufficiently Predict COVID Patients, Some Potentially Harmful

AI Tools Failed to Sufficiently Predict COVID Patients, Some Potentially Harmful

Jul 2021 · 1 informe
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Arkansas's Opaque Algorithm to Allocate Health Care Excessively Cut Down Hours for Beneficiaries

Arkansas's Opaque Algorithm to Allocate Health Care Excessively Cut Down Hours for Beneficiaries

Jan 2016 · 2 informes
Uber AV Killed Pedestrian in Arizona

Uber AV Killed Pedestrian in Arizona

Mar 2018 · 25 informes
AI Tools Failed to Sufficiently Predict COVID Patients, Some Potentially Harmful

AI Tools Failed to Sufficiently Predict COVID Patients, Some Potentially Harmful

Jul 2021 · 1 informe

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178