Incidentes Asociados

UNA TARDE DE julio de 2020, una mujer llamada Kathryn fue al hospital con un dolor insoportable. Una estudiante de posgrado en psicología de 32 años en Michigan, Kathryn vivía con endometriosis, una condición agonizante que hace que las células similares a las del útero se desarrollen de manera anormal en los lugares equivocados. La menstruación hace que estos crecimientos se desprendan y, a menudo, causan calambres y cicatrices dolorosas, lo que a veces hace que los órganos internos se adhieran entre sí, antes de que todo el ciclo comience de nuevo. Durante años, Kathryn había estado controlando su condición en parte tomando opioides orales como Percocet cuando los necesitaba para el dolor. Pero la endometriosis es progresiva: una vez que la llevaron a una cirugía de emergencia para extirpar un crecimiento potencialmente mortal en su ovario, Kathryn ahora temía que algo igual de peligroso estuviera sucediendo, dado lo mucho que le dolía. En el hospital, los médicos realizaron una ecografía para descartar algunos de los peores escenarios y luego admitieron a Kathryn para que la observaran y controlaran si su ovario estaba comenzando a desarrollar otro quiste. Mientras tanto, dijeron, le proporcionarían medicamentos opioides intravenosos hasta que pasara la crisis. Sin embargo, en su cuarto día en el hospital, algo cambió. Un miembro del personal le informó bruscamente a Kathryn que ya no recibiría ningún tipo de opioide. “No creo que sepa qué tan altas son algunas puntuaciones en su tabla”, dijo la mujer. “Teniendo en cuenta las recetas que está tomando, es bastante obvio que necesita ayuda que no esté relacionada con el dolor”. Kathryn, quien habló con WIRED con la condición de que solo usemos su segundo nombre para proteger su privacidad, estaba desconcertada. ¿A qué tipo de ayuda se refería la mujer? ¿Qué recetas, exactamente? Antes de que pudiera comprender lo que estaba sucediendo, fue dada de alta sumariamente del hospital, todavía con mucho dolor. De vuelta en casa, unas dos semanas después, Kathryn recibió una carta del consultorio de su ginecólogo que decía que su médico estaba "terminando" su relación. Una vez más, estaba desconcertada. Pero este mensaje al menos ofrecía alguna explicación: decía que la iban a cortar debido a “un informe de la base de datos de NarxCare”. Como la mayoría de las personas, Kathryn nunca había oído hablar de NarxCare, así que lo buscó y descubrió un conjunto de bases de datos y algoritmos que han llegado a desempeñar un papel cada vez más central en la respuesta de los Estados Unidos a su crisis de sobredosis. En las últimas dos décadas, el Departamento de Justicia de los EE. UU. ha invertido cientos de millones de dólares en el desarrollo y mantenimiento de bases de datos de medicamentos recetados a nivel estatal: registros electrónicos que rastrean los guiones de ciertas sustancias controladas en tiempo real, lo que brinda a las autoridades un par de ojos en el mercado farmacéutico. Todos los estados de EE. UU., excepto uno, ahora tienen uno de estos programas de monitoreo de medicamentos recetados, o PDMP. Y el último reducto, Missouri, está a punto de unirse al resto. En los últimos años, a través de una serie de adquisiciones y contratos gubernamentales, una sola empresa llamada Appriss ha llegado a dominar la gestión de estas bases de datos de recetas estatales. Si bien los registros en sí mismos están algo balcanizados (cada uno se rige por sus propias peculiaridades, requisitos y parámetros), Appriss ha ayudado a hacerlos interoperables, fusionándolos en algo así como un registro nacional de medicamentos recetados sin fisuras. También ha ido mucho más allá de la simple recopilación y recuperación de registros, desarrollando algoritmos de aprendizaje automático para generar "percepciones de datos" e indicando que aprovecha enormes reservas de datos fuera de los registros estatales de drogas para llegar a ellos. NarxCare, el sistema que inspiró al ginecólogo de Kathryn a separarse de ella, es el producto estrella de Appriss para médicos, farmacias y hospitales: una "herramienta de análisis y plataforma de gestión de la atención" que pretende identificar instantánea y automáticamente el riesgo de un paciente de abusar de los opioides. En el nivel más básico, cuando un médico pregunta a NarxCare sobre alguien como Kathryn, el software extrae registros estatales en busca de señales de alerta que indiquen que se ha involucrado en un comportamiento de "compra de medicamentos": anota la cantidad de farmacias que ha visitado un paciente, las distancias que ha recorrido. viajó para recibir atención médica y las combinaciones de recetas que recibe. Más allá de eso, las cosas se vuelven un poco misteriosas. NarxCare también ofrece a los estados acceso a un producto complejo de aprendizaje automático que asigna automáticamente a cada paciente una puntuación de riesgo de sobredosis única e integral. Solo Appriss sabe exactamente cómo se deriva este puntaje, pero según el material promocional de la compañía, su modelo predictivo no solo se basa en los datos del registro estatal de medicamentos, sino que “puede incluir datos de reclamos médicos, registros de salud electrónicos, datos de EMS y datos de justicia penal. ” Al menos ocho estados, incluidos Texas, Florida, Ohio y Michigan, donde vive Kathryn, se han registrado para incorporar este algoritmo en sus programas de monitoreo. A pesar de toda la aparente complejidad de estas entradas, lo que los médicos ven en su pantalla cuando acceden al informe de NarxCare de un paciente es muy simple: un montón de visualizaciones de datos que describen el historial de recetas de la persona, coronado por un puñado de puntajes de tres dígitos que claramente pretenden resumir el riesgo del paciente. Appriss insiste en que una puntuación de NarxCare no pretende suplantar el diagnóstico de un médico. Pero los médicos ignoran estos números por su cuenta y riesgo. Casi todos los estados ahora usan el software Appriss para administrar sus programas de monitoreo de medicamentos recetados, y la mayoría requiere legalmente que los médicos y farmacéuticos los consulten cuando recetan sustancias controladas, bajo pena de perder su licencia. En algunos estados, la policía y los funcionarios encargados de hacer cumplir la ley federal también pueden acceder a esta información médica altamente confidencial, en muchos casos sin una orden judicial, para enjuiciar tanto a los médicos como a los pacientes. En esencia, descubrió Kathryn, casi todos los estadounidenses tienen el equivalente de un puntaje de crédito secreto que califica el riesgo de recetarles sustancias controladas. Y los médicos tienen a las autoridades mirando por encima del hombro mientras sopesan sus propias respuestas a esos puntajes. Sin embargo, incluso después de que Kathryn hubiera leído sobre NarxCare, todavía se quedó con una pregunta básica: ¿Por qué había sido marcada con un puntaje tan alto? Ella no estaba “comprando doctores”. El único otro médico que vio fue su psiquiatra. Tenía una receta para una benzodiazepina para tratar el trastorno de estrés postraumático, y la combinación de esos medicamentos con opioides es un factor de riesgo conocido de sobredosis. Pero, ¿podría eso realmente haber sido suficiente para que la echaran de un consultorio médico? Mientras Kathryn continuaba con su investigación en línea, descubrió que había todo un mundo de pacientes con dolor crónico en Twitter y otros foros que comparaban notas sobre cómo se habían topado con NarxCare u otras herramientas de detección. Y finalmente encontró una explicación que la ayudó a comprender qué podría haber salido mal: tenía mascotas enfermas. En el momento de su hospitalización, Kathryn era dueña de dos perros perdigueros de pelo liso, Bear y Moose. Ambos eran el tipo de perro que prefería adoptar: rescates mayores con problemas médicos significativos que otros posibles dueños podrían evitar. Moose tenía epilepsia y había requerido cirugía en ambas patas traseras. También había sido abusado cuando era un cachorro y tenía una ansiedad severa. Oso también sufría de ansiedad. Los veterinarios les habían recetado opioides, benzodiazepinas e incluso barbitúricos a los dos caninos. Las recetas para animales se ponen a nombre de su propietario. Entonces, para NarxCare, aparentemente Kathryn estaba viendo a muchos médicos por diferentes medicamentos, algunos en dosis extremadamente altas. (Los perros pueden requerir grandes cantidades de benzodiazepinas debido a factores metabólicos). Appriss dice que es "muy raro" que las recetas de las mascotas aumenten los puntajes de NarxCare de un paciente. Por más kafkiano que parezca este problema, los críticos dicen que no es un problema técnico aislado. Un número creciente de investigadores cree que NarxCare y otras herramientas de detección como esta tienen fallas profundas. Según un estudio, el 20 por ciento de los pacientes que tienen más probabilidades de ser marcados como médicos compradores en realidad tienen cáncer, lo que a menudo requiere ver a múltiples especialistas. Y muchas de las señales de alerta oficiales que aumentan los puntajes de riesgo de una persona son simplemente atributos de los pacientes más vulnerables y médicamente complejos, lo que a veces hace que a esos grupos se les niegue el tratamiento del dolor con opioides. La IA que genera la puntuación de riesgo de sobredosis de NarxCare es, para muchos críticos, aún más inquietante. En un momento de creciente preocupación por los algoritmos predictivos, las propias descripciones de Appriss de NarxCare, que se jactan de un acceso extremadamente amplio a datos confidenciales de los pacientes, han despertado las alarmas entre los defensores de los pacientes y los investigadores. La página de inicio de NarxCare, por ejemplo, describe cómo su algoritmo rastrea los registros médicos de los pacientes en busca de diagnósticos de depresión y trastorno de estrés postraumático, tratándolos como "variables que podrían afectar la evaluación de riesgos". A su vez, los académicos han publicado cientos de páginas sobre NarxCare, explorando cómo ese uso de registros de diagnóstico podría tener un impacto dispar en las mujeres (que tienen más probabilidades de sufrir traumas por abuso) y cómo su supuesto uso de datos de justicia penal podría sesgarse contra la discriminación racial. minorías (que tienen más probabilidades de haber sido arrestadas). Pero lo más preocupante, según los investigadores, es lo opacas e inexplicables que son estas herramientas casi médicas. Ninguno de los algoritmos que se usan ampliamente para guiar las decisiones clínicas de los médicos, incluido NarxCare, ha sido validado como seguro y efectivo por investigaciones revisadas por pares. Y debido a que los algoritmos de evaluación de riesgos de Appriss son propietarios, no hay forma de mirar debajo del capó para inspeccionarlos en busca de errores o sesgos. Tampoco, para el caso, existen formas claras para que un paciente busque reparación. Tan pronto como Kathryn se dio cuenta de lo que había sucedido, comenzó a tratar de borrar su registro. Ella todavía está en eso. Mientras tanto, cuando visita una farmacia o el consultorio de un médico, dice que siempre puede saber cuándo alguien ha visto su puntaje. “Toda su conducta ha cambiado”, dice ella. “Me recuerda a un sospechoso y un detective. Ya no es una relación afectuosa, empática y compasiva. Es más una inquisición”. La relación de ESTADOS UNIDOS con las drogas opioides siempre ha sido tensa. O los amamos o los odiamos. Históricamente, los períodos de disponibilidad generalizada estimulan las adicciones, lo que conduce a medidas enérgicas, que conducen a un tratamiento insuficiente del dolor, y luego otra oscilación extrema del péndulo, que nunca parece establecerse en un punto medio feliz. El clima anti-opiáceo actual tiene sus raíces en la comercialización excesiva de OxyContin de Purdue Pharma a mediados de la década de 1990. Entre 1999 y 2010, la prescripción de opioides en los EE. UU. se cuadruplicó y las muertes por sobredosis aumentaron a la par. Para muchos expertos, esto sugería una solución fácil: si disminuye la prescripción, las tasas de mortalidad también disminuirán. Pero eso no sucedió. Si bien la cantidad total de opioides recetados se redujo en un 60 % entre 2011 y 2020, la tasa de mortalidad por sobredosis, que ya es récord, al menos se duplicó durante el mismo período. Simplemente cortar el suministro médico no ayudó; en cambio, impulsó el uso de drogas más peligrosas, lo que llevó a muchos estadounidenses a consumir sustancias como el fentanilo fabricado ilegalmente. La razón por la que estos recortes no habían funcionado, creían algunos expertos, era que no se habían dirigido a los pacientes con mayor riesgo. Alrededor del 70 por ciento de los adultos han tomado opioides médicos, pero solo el 0,5 por ciento sufre de lo que oficialmente se denomina "trastorno por uso de opioides", más comúnmente llamado adicción. Un estudio encontró que incluso dentro del grupo de edad de mayor riesgo, los adolescentes y las personas de poco más de veinte años, solo uno de cada 314 pacientes con seguro privado a los que se les habían recetado opioides desarrolló problemas con ellos. Los investigadores sabían desde hacía años que algunos pacientes tenían un mayor riesgo de adicción que otros. Los estudios han demostrado, por ejemplo, que mientras más experiencias adversas en la infancia haya tenido alguien, como ser abusado o descuidado o perder a un padre, mayor será su riesgo. Otro gran factor de riesgo es la enfermedad mental, que afecta al menos al 64 por ciento de todas las personas con trastorno por consumo de opioides. Pero si bien los expertos conocían estos peligros, no tenían una buena forma de cuantificarlos. Eso comenzó a cambiar a medida que se intensificaba la epidemia de opiáceos y crecía la demanda de una herramienta simple que pudiera predecir con mayor precisión el riesgo de un paciente. Una de las primeras de estas medidas, la Herramienta de riesgo de opioides (ORT), fue publicada en 2005 por Lynn Webster, expresidenta de la Academia Estadounidense de Medicina del Dolor, que ahora trabaja en la industria farmacéutica. (Webster también recibió anteriormente honorarios por conferencias de fabricantes de opioides). Para construir el ORT, Webster comenzó buscando estudios que cuantificaran factores de riesgo específicos. Junto con la literatura sobre experiencias infantiles adversas, Webster encontró estudios que relacionan el riesgo con antecedentes personales y familiares de adicción, no solo a los opioides sino a otras drogas, incluido el alcohol. También encontró datos sobre el riesgo elevado de determinados trastornos psiquiátricos, incluidos el trastorno obsesivo-compulsivo, el trastorno bipolar, la esquizofrenia y la depresión mayor. Al reunir toda esta investigación, Webster diseñó un breve cuestionario para pacientes destinado a determinar si alguien poseía alguno de los factores de riesgo conocidos para la adicción. Luego se le ocurrió una forma de sumar y ponderar las respuestas para generar una puntuación general. El ORT, sin embargo, a veces estaba fuertemente sesgado y limitado por sus fuentes de datos. Por ejemplo, Webster encontró un estudio que mostraba que un historial de abuso sexual en las niñas triplicaba su riesgo de adicción, por lo que debidamente incluyó una pregunta sobre si los pacientes habían sufrido abuso sexual y lo codificó como un factor de riesgo para las mujeres. ¿Por qué solo ellos? Porque no se había hecho ningún estudio análogo en niños. El sesgo de género que esto introdujo en la ORT fue especialmente extraño dado que dos tercios de todas las adicciones ocurren en hombres. El ORT tampoco tuvo en cuenta si a un paciente se le habían recetado opioides durante períodos prolongados sin volverse adicto. Webster dice que no tenía la intención de que su herramienta se usara para negar el tratamiento del dolor, solo para determinar a quién se debe vigilar más de cerca. Sin embargo, como uno de los primeros evaluadores disponibles, rápidamente se hizo popular entre los médicos y hospitales deseosos de permanecer en el lado correcto de la crisis de los opioides. Hoy en día, se ha incorporado a múltiples sistemas de registros médicos electrónicos y, a menudo, los médicos preocupados por la prescripción excesiva confían en él. Es "muy, muy ampliamente utilizado en los EE. UU. y otros cinco países", dice Webster. En comparación con los primeros evaluadores de riesgo de opioides como ORT, NarxCare es más complejo, más poderoso, más arraigado en la aplicación de la ley y mucho menos transparente. Appriss comenzó en la década de 1990 creando un software que notifica automáticamente a las víctimas de delitos y otros "ciudadanos preocupados" cuando una persona encarcelada específica está a punto de ser liberada. Más tarde se trasladó a la atención de la salud. Después de desarrollar una serie de bases de datos para monitorear recetas, Appriss en 2014 adquirió lo que entonces era el algoritmo más utilizado para predecir quién estaba en mayor riesgo de "uso indebido de sustancias controladas", un programa desarrollado por la Asociación Nacional de Juntas de Farmacia, y comenzó a desarrollarlo y expandirlo. Al igual que muchas empresas que suministran software para rastrear y predecir la adicción a los opiáceos, Appriss está financiada en gran parte, directa o indirectamente, por el Departamento de Justicia. NarxCare es uno de los muchos algoritmos predictivos que han proliferado en varios dominios de la vida en los últimos años. En entornos médicos, se han utilizado algoritmos para predecir qué pacientes tienen más probabilidades de beneficiarse de un tratamiento en particular y para estimar la probabilidad de que un paciente en la UCI se deteriore o muera si es dado de alta. En teoría, la creación de una herramienta de este tipo para guiar cuándo y a quién se prescriben los opioides podría ser útil, posiblemente incluso para abordar las desigualdades médicas. Los estudios han demostrado, por ejemplo, que es más probable que a los pacientes negros se les niegue la medicación para el dolor y que se los perciba como buscadores de drogas. Un predictor más objetivo podría, de nuevo, en teoría, ayudar a los pacientes que no están medicados a obtener el tratamiento que necesitan. Pero en la práctica, los algoritmos que se originan con la aplicación de la ley han mostrado un historial de ejecución en la dirección opuesta. En 2016, por ejemplo, ProPublica analizó cómo COMPAS, un algoritmo diseñado para ayudar a los tribunales a identificar qué acusados tienen más probabilidades de cometer delitos en el futuro, era mucho más propenso a señalar incorrectamente a los acusados negros como posibles reincidentes. (La empresa que fabrica el algoritmo cuestionó este análisis). En los años transcurridos desde entonces, el problema de la injusticia algorítmica, la tendencia de la IA a oscurecer y armar los sesgos de sus datos subyacentes, se ha convertido en una preocupación cada vez mayor entre las personas que estudian el ética de la IA. Durante los últimos dos años, Jennifer Oliva, directora del Centro de Salud y Derecho Farmacéutico de la Universidad de Seton Hall, se ha propuesto examinar NarxCare a la luz de estos temores. En un importante artículo reciente llamado "Dosing Discrimination", argumenta que gran parte de los datos que NarxCare afirma rastrear pueden simplemente recapitular las desigualdades asociadas con la raza, la clase y el género. Vivir en un área rural, por ejemplo, a menudo requiere viajar distancias más largas para recibir tratamiento, pero eso no significa automáticamente ir de compras al médico. Del mismo modo, si bien es un misterio exactamente cómo NarxCare puede incorporar datos de justicia penal en su algoritmo, está claro que los negros son arrestados con mucha más frecuencia que los blancos. Eso no significa que prescribirles sea más riesgoso, dice Oliva, solo que son más atacados por sistemas sesgados. “Todo eso solo refuerza esta discriminación histórica”, dice Oliva. Appriss, por su parte, dice que dentro de los algoritmos de NarxCare, "no hay ajustes en la puntuación de riesgo para tener en cuenta los posibles sesgos subyacentes" en sus datos de origen. Sin embargo, otras comunicaciones de la empresa indican que los datos de origen subyacentes de NarxCare pueden no ser lo que parecen. Al principio del reportaje de este artículo, Appriss rechazó la solicitud de entrevista de WIRED. Más tarde, en una respuesta enviada por correo electrónico a preguntas específicas sobre sus fuentes de datos, la compañía hizo una afirmación sorprendente: en aparente contradicción con su propio material de marketing, Appriss dijo que el algoritmo de riesgo predictivo de NarxCare no utiliza ningún dato fuera de los registros estatales de medicamentos recetados. “La puntuación de riesgo de sobredosis se desarrolló originalmente para permitir la ingesta de fuentes de datos adicionales más allá del PDMP”, dijo un portavoz de la compañía, “pero ningún estado ha optado por hacerlo. Todos los puntajes contenidos en NarxCare se basan únicamente en datos del programa de monitoreo de medicamentos recetados”. Algunos estados incorporan ciertos datos de justicia penal, por ejemplo, registros de condenas por drogas, en sus programas de monitoreo de medicamentos recetados, por lo que es concebible que el modelo de aprendizaje automático de NarxCare se base en ellos. Pero Appriss se distanció específicamente de otras fuentes de datos declaradas en su material de marketing. Por ejemplo, la compañía le dijo a WIRED que NarxCare y sus puntajes "no incluyen ninguna información de diagnóstico" de los registros médicos de los pacientes. Eso parecería sugerir, contrariamente a la página de inicio de NarxCare, que el algoritmo de hecho no tiene en cuenta las historias de depresión y TEPT de las personas. La compañía también dijo que no tiene en cuenta la distancia que viaja un paciente para recibir atención médica, a pesar de una publicación de blog habladora de 2018, todavía en el sitio de Appriss, que incluye esta línea en una descripción del modelo de aprendizaje automático de NarxCare: “Podríamos darle otro tipo de datos que involucren distancias entre el médico y el farmacéutico y la casa del paciente”. Estas últimas afirmaciones de Appriss solo aumentan las preocupaciones de Oliva sobre la inescrutabilidad de NarxCare. “Como he dicho muchas veces en mi propia investigación, lo más aterrador de la plataforma de puntuación de riesgo de Appriss es el hecho de que sus algoritmos son propietarios y, como resultado, no hay forma de validarlos externamente”, dice Oliva. “Al menos deberíamos poder creer lo que dice Appriss en su propio sitio web y en sus documentos públicos”. Además, dicen los expertos, incluso los aspectos más simples y transparentes de algoritmos como NarxCare, el recuento de señales de alerta que significan un comportamiento de "compra de médicos", son profundamente problemáticos, ya que pueden apuntar a pacientes con condiciones complejas. “Cuanto más vulnerable es un paciente, más grave es la enfermedad del paciente, más compleja su historia, más probable es que termine teniendo múltiples médicos y múltiples farmacias”, señala Stefan Kertesz, profesor de medicina y salud pública en la Universidad de Alabama en Birmingham. “El algoritmo está configurado para convencer a los médicos de que el cuidado de cualquier persona con una enfermedad más grave representa la mayor responsabilidad posible. Y de esa forma incentiva el abandono de los pacientes que tienen los problemas más graves”. Para aliviar un poco el calor de estos pacientes complejos, Appriss dice que su algoritmo “se enfoca en cambios rápidos” en el uso de drogas y resta importancia a las personas que han mantenido múltiples recetas en niveles estables durante mucho tiempo. Pero como siempre, la compañía enfatiza que un puntaje de NarxCare no está destinado a determinar el curso de tratamiento de ningún paciente, que solo un médico puede hacerlo. Sin embargo, los médicos también son juzgados por algoritmos y pueden ser procesados si escriben más recetas que sus pares o si recetan a pacientes considerados de alto riesgo. “Creo que los prescriptores se han asustado mucho. Tienen mucho miedo de que los llamen”, dice Sarah Wakeman, directora médica de la Iniciativa de Trastornos por Uso de Sustancias en el Hospital General de Massachusetts, profesora asistente de medicina en Harvard y doctora que usa regularmente NarxCare. La investigación ha encontrado que alrededor del 43 por ciento de las clínicas médicas de EE. UU. ahora se niegan a atender a nuevos pacientes que requieren opioides. Los médicos también, dice Wakeman, "simplemente no están realmente seguros de qué es lo correcto". Un par de encuestas académicas han encontrado que los médicos aprecian los registros de medicamentos recetados, ya que realmente quieren poder identificar a los pacientes que están abusando de los opioides. Pero los médicos también han dicho que algunos registros pueden tomar demasiado tiempo para acceder y digerir. NarxCare es en parte una solución a ese problema: acelera todo. Se destila. El resultado de toda esa velocidad y todo ese miedo, dice Kertesz, es que los pacientes que tienen dolor crónico pero que no tienen adicciones pueden terminar sin medicamentos que podrían ayudarlos. En casos extremos, eso puede incluso llevar a algunas personas que padecen dolor crónico a recurrir a suministros ilegales más peligrosos o al suicidio. Entre los pacientes con recetas de opioides a largo plazo, la investigación muestra que suspender esas recetas sin proporcionar una atención alternativa eficaz se asocia con casi el triple de riesgo de muerte por sobredosis. “El problema que realmente infunde la discusión de NarxCare es que el entorno en el que se usa tiene un elemento intenso de aplicación de la ley, miedo y desconfianza hacia los pacientes”, dice Kertesz. “Se suma a un entorno en el que los médicos temen profundamente por su capacidad futura para mantener una profesión, donde la sociedad ha tomado un giro particularmente vengativo contra los médicos y los pacientes. Y donde la compañía que desarrolla esta interesante herramienta pueda forzarla en las pantallas de casi todos los médicos en Estados Unidos”. A MEDIDA QUE KATHRYN SE INMERSIÓ más en las comunidades en línea de pacientes con dolor crónico, una de las personas con las que entró en contacto fue una mujer de 44 años llamada Beverly Schechtman, que había sido galvanizada por su propia mala experiencia con la detección del riesgo de opioides. En 2017, Schechtman fue hospitalizado por cálculos renales, que pueden causar algunos de los peores dolores conocidos por los humanos. En su caso, estaban asociados con la enfermedad de Crohn, una enfermedad inflamatoria crónica del intestino. Debido a que los brotes de Crohn por sí solos pueden causar un dolor intenso, Schechtman ya tenía una receta de opioides orales, pero fue al hospital ese día en 2017 porque tenía tantas náuseas por el dolor que no podía controlarlos ni nada más. . Al igual que Kathryn, también tomó benzodiazepinas para un trastorno de ansiedad. Esa combinación, que es popular entre los usuarios de drogas y se considera un factor de riesgo de sobredosis, hizo sospechar al hospitalista a cargo del cuidado de Schechtman. Sin siquiera presentarse, exigió saber por qué ella estaba tomando los medicamentos. Así que explicó que tenía PTSD, esperando que esta revelación fuera suficiente. No obstante, él la presionó sobre la causa del trauma, por lo que ella reveló que había sido abusada sexualmente cuando era niña. Después de eso, dice Schechtman, el médico se volvió aún más brusco. “Debido a eso, no puedo darle ningún tipo de analgésico intravenoso”, recuerda que le dijo. Cuando ella preguntó por qué, ella dijo que él afirmó que tanto el uso de drogas intravenosas como el abuso sexual infantil cambian el cerebro. “‘Algún día me lo agradecerás, porque debido a lo que pasaste de niña, tienes un riesgo mucho mayor de volverte adicta, y yo no puedo participar en eso’”, dice que le dijeron. Schechtman dice que sintió que el médico la estaba culpando por haber sido abusada. Ella también estaba desconcertada. Había estado tomando opioides de forma intermitente durante más de 20 años y nunca se había vuelto adicta. ¿No era eso relevante? ¿Y cómo podría ser ético negar el alivio del dolor basado en un riesgo teórico relacionado con el abuso? Ella no estaba pidiendo drogas para llevar a casa; ella solo quería ser tratada en el hospital, como lo había sido anteriormente, sin problemas. Como le sucedería más tarde a Kathryn, la experiencia llevó a Schechtman a Internet. “Simplemente me obsesioné con investigarlo todo”, dice Schechtman. “Estaba preguntando a las personas en estos grupos en línea: ‘¿A alguno de ustedes se le negaron los opioides debido a un historial de abuso sexual?’ Y las mujeres se adelantaron”. Schechtman finalmente se unió a un grupo de defensa llamado Don't Punish Pain Rally. Junto con otros activistas del grupo, descubrió que la pregunta sobre el historial de abuso sexual en la ORT se dirigía injustamente a las mujeres, pero no a los hombres. (Una versión actualizada de la herramienta de Webster ahora excluye la diferencia de género, pero la más antigua parece vivir en algunos sistemas de registros médicos electrónicos). También encontró muchos pacientes con dolor que dijeron que tenían problemas con NarxCare. Extrañamente, incluso las personas que están recibiendo el tratamiento estándar de oro para la adicción pueden ser marcadas incorrectamente por NarxCare y luego los farmacéuticos les pueden negar ese mismo tratamiento. La buprenorfina, mejor conocida bajo el nombre de marca Suboxone, es uno de los dos medicamentos que se ha demostrado que reducen la tasa de mortalidad por el trastorno por uso de opioides en un 50 por ciento o más, principalmente al prevenir la sobredosis. Pero debido a que es un opioide en sí mismo, la buprenorfina se encuentra entre las sustancias que pueden elevar el puntaje de NarxCare, aunque generalmente se incluye en una sección separada de un informe de NarxCare para indicar que la persona está en tratamiento. Esa separación, sin embargo, no impide necesariamente que un farmacéutico mire la puntuación más alta de un paciente y se niegue a ofrecerle recetas. Ryan Ward, un defensor de la recuperación con sede en Florida, ha tomado buprenorfina durante casi una década. También tiene antecedentes de dolor de espalda severo y cirugías relacionadas. En 2018, cuando su farmacia dejó de vender buprenorfina, trató de surtir su receta en un Walmart y lo rechazaron. Luego visitó dos CVS y tres Walgreens, y se sintió igualmente bloqueado. “Me visto bien. me veo bien Y sería amable”, dice. “Y tan pronto como obtengan mi licencia de conducir, vaya, cambiarían de actitud. No podía entender por qué”. Después de entrar en pánico de que podría sumergirse en la abstinencia e, irónicamente, correr un riesgo mucho mayor de sobredosis, cambió de táctica. Se acercó a una farmacéutica en un Publix y primero le mostró su página de LinkedIn, que destaca su defensa y empleo. Describió lo que había sucedido en las otras farmacias. Cuando revisó la base de datos, inmediatamente vio el problema: una puntuación de riesgo de sobredosis abrumadoramente alta. Sin embargo, a diferencia de sus colegas, aceptó surtir la receta, al darse cuenta de que no tenía sentido negarle a un paciente un medicamento que previene la sobredosis en nombre de prevenir la sobredosis. Aun así, incluso tres años después, si prueba con otra farmacia, lo rechazan. Appriss enfatiza que se supone que sus datos no deben usarse de esta manera. “Los farmacéuticos y los médicos usan estos puntajes como indicadores o llamados a la acción para revisar más detalles en el historial de recetas del paciente junto con otra información relevante de salud del paciente”, escribió la compañía en un comunicado. “El análisis y las puntuaciones asociadas no pretenden funcionar como únicos determinantes del riesgo de un paciente”. Appriss también dice que las recetas de buprenorfina han aumentado en las áreas del país que usan NarxCare. Pero al igual que los demás, Ward no ha podido solucionar su problema. Y dado que la mayoría de los estados exigen ahora que los médicos y farmacéuticos utilicen estas bases de datos, millones de personas se verán potencialmente afectadas. Una encuesta de pacientes cuyos proveedores han verificado estos sistemas encontró que al menos la mitad informó haber sido humillado y el 43 por ciento informó recortes en las recetas que aumentaron el dolor y redujeron la calidad de vida. Appriss dice en su sitio web que depende de cada estado tratar las quejas de los pacientes. Aún así, pocos saben a dónde acudir. “Los estados lo han puesto muy difícil”, dice Oliva. Algunos ni siquiera permiten la corrección de errores. Y cuando Ward trató de contactar a Appriss directamente, dice, fue ignorado. A PRINCIPIOS de la década de 2010, Angela Kilby buscaba un tema para su tesis doctoral en economía en el MIT. Cuando un miembro de su familia, un médico del sur rural, le dijo lo difícil que era tomar decisiones sobre la prescripción de opioides en una comunidad devastada por las sobredosis, Kilby sintió que había encontrado a su sujeto. Decidió estudiar el dilema del médico examinando cómo un mayor control sobre la prescripción de opioides realmente afectaba a los pacientes. Para realizar un seguimiento de los resultados de salud, utilizó datos de reclamos de seguros de 38 estados que habían implementado bases de datos de monitoreo de recetas en diferentes momentos entre 2004 y 2014. Al iniciar su estudio, Kilby se había dejado influir por la investigación y los informes de prensa, abundantes en una era de "fábrica de píldoras". ” medidas enérgicas y reacciones violentas contra la prescripción excesiva, lo que sugiere que los opioides no solo son adictivos sino también ineficaces e incluso dañinos para los pacientes con dolor crónico. Ella había predicho que las reducciones en la prescripción aumentarían la productividad y la salud. “Esperaba ver lo contrario de lo que vi”, dice. De hecho, su investigación mostró que la reducción de las recetas médicas de opioides condujo a un mayor gasto médico, mayores niveles de dolor en pacientes hospitalizados y más días de trabajo perdidos. “Estas son personas que probablemente están perdiendo el acceso a los opiáceos, que tienen más dificultades para volver al trabajo después de las lesiones y tienen dificultades para recibir tratamiento para el dolor”, dice. Intrigada, quiso saber más. Entonces, a fines de la década de 2010, después de convertirse en profesora asistente en la Universidad Northeastern, decidió simular el modelo de aprendizaje automático que genera la medida algorítmicamente más sofisticada de NarxCare, la puntuación de riesgo de sobredosis. Aunque Appriss no hizo públicos los factores que intervinieron en su algoritmo, Kilby hizo ingeniería inversa de lo que pudo. Al no tener acceso a los datos del registro de medicamentos recetados, Kilby decidió utilizar datos de reclamos de seguros de salud no identificados, una fuente que subyace a todos los demás algoritmos de aprendizaje automático publicados que predicen el riesgo de opioides. Usando aproximadamente el mismo método que Appriss presenta en los relatos de su propio trabajo de aprendizaje automático, entrenó a su modelo mostrándole casos de personas a las que se les había diagnosticado un trastorno por uso de opioides después de recibir una receta de opioides. Lo envió buscando parecidos y predictores de riesgo en sus archivos. Luego soltó su modelo en una muestra mucho más grande, esta vez con esos diagnósticos de trastorno por uso de opioides ocultos del algoritmo, para ver si realmente identificaba casos reales. Lo que Kilby descubrió fue que, si bien el modelo de NarxCare puede rastrear un conjunto de datos diferente, es casi seguro que comparte una limitación esencial con su algoritmo. “El problema con todos estos algoritmos, incluido el que desarrollé”, dice Kilby, “es la precisión”. El conjunto de datos completo de Kilby incluía los archivos de aproximadamente 7 millones de personas que estaban aseguradas por sus empleadores entre 2005 y 2012. Pero debido a que la adicción a los opiáceos es tan rara en la población general, la muestra de capacitación que el algoritmo podría usar para hacer predicciones era pequeña: algunos 23.000 de todos esos millones. Además, el 56 por ciento de ese grupo tenía adicciones antes de recibir su primera receta, lo que significa que el medicamento no pudo haber causado el problema, por lo que tuvieron que ser excluidos de la muestra de capacitación. (Esto respalda otros datos que muestran que la mayoría de las personas con adicción a los opioides comienzan con un uso recreativo, en lugar de médico). El resultado fue que el algoritmo de Kilby generó una gran cantidad de resultados falsos positivos y falsos negativos, incluso cuando estableció sus parámetros de manera tan estricta. que alguien tenía que tener una puntuación igual o superior al percentil 99 para ser considerado de alto riesgo. En ese caso, descubrió que solo el 11 por ciento de los que obtuvieron puntajes altos en realidad habían sido diagnosticados con un trastorno por uso de opioides, mientras que el 89 por ciento fueron marcados incorrectamente. Relajar sus criterios no mejoró las cosas. El uso del percentil 95 como punto de corte identificó más positivos verdaderos, pero también aumentó los falsos: esta vez, menos del 5 por ciento de los positivos fueron verdaderos positivos. (En su propia literatura, Appriss menciona estos dos puntos de corte como clínicamente útiles). La investigación de Kilby también identificó un problema aún más fundamental. Los algoritmos como el suyo tienden a señalar a las personas que han acumulado una larga lista de factores de riesgo a lo largo de su vida, incluso si han tomado opioides durante años sin que se hayan informado problemas. Por el contrario, si el algoritmo tiene pocos datos sobre alguien, es probable que los etiquete como de bajo riesgo. Pero esa persona en realidad puede tener un mayor riesgo que los pacientes con dolor crónico a largo plazo que ahora son golpeados con mayor frecuencia. "Simplemente no existe correlación alguna entre la probabilidad de que el algoritmo diga que es de alto riesgo y la reducción en la probabilidad de desarrollar un trastorno por uso de opioides", explica Kilby. En otras palabras, el algoritmo esencialmente no puede hacer lo que dice hacer, que es determinar si escribir o negar la próxima receta de alguien alterará su trayectoria en términos de adicción. Y esta falla, dice, afecta a todos los algoritmos que ahora se sabe que están en uso. EN SU DOCUMENTO "Dosing Discrimination", sobre algoritmos como NarxCare, Jennifer Oliva describe una serie de casos similares a los de Kathryn y Schectman, en los que a las personas se les negaron los opioides debido a antecedentes de trauma sexual y otros factores potencialmente engañosos. El documento culmina con un argumento de que la aprobación de la FDA, que actualmente no se requiere para NarxCare, debería ser obligatoria, especialmente dado el dominio del mercado por parte de Appriss. La pregunta más importante, por supuesto, es si se deben usar algoritmos para determinar el riesgo de adicción. Cuando hablé con Elaine Nsoesie, miembro de la facultad de ciencia de datos de la Universidad de Boston con un doctorado en epidemiología computacional, argumentó que mejorar la salud pública requiere comprender las causas de un problema, no usar medidas indirectas que pueden o no estar asociadas con el riesgo. “Yo no estaría pensando en algoritmos”, dice ella. “Saldría a la población para tratar de entender, en primer lugar, ¿por qué tenemos estos problemas? ¿Por qué tenemos sobredosis de opioides? ¿Por qué tenemos adicciones? ¿Cuáles son los factores que contribuyen a estos problemas y cómo podemos abordarlos? Por el contrario, durante la crisis de sobredosis, los formuladores de políticas se han centrado incansablemente en reducir el uso de opioides médicos. Y según esa métrica, han tenido un éxito abrumador: la prescripción se ha reducido a más de la mitad. Y, sin embargo, 2020 vio la mayor cantidad de muertes por sobredosis en los EE. UU. (93,000) registradas, un sorprendente aumento del 29 por ciento con respecto al año anterior. Además, incluso entre las personas con adicción conocida, hay poca evidencia de que evitar el uso apropiado de opioides médicos los proteja, por sí solo. “Creo que el dolor no tratado en alguien con antecedentes de adicción es un factor de riesgo de recaída, si no más”, dice Wakeman. Ella pide un mejor seguimiento y apoyo, no la negación obligatoria de opioides. Appriss ha reconocido la necesidad de estudiar los efectos de NarxCare en la salud y la mortalidad de las personas señaladas por el sistema, y no solo si resulta en una reducción de las recetas. En un seminario web reciente, la gerente de ciencia de datos de la compañía, Kristine Whalen, destacó nuevos datos que muestran que la implementación de NarxCare aceleró la disminución en la prescripción de opioides en seis estados en aproximadamente un 10 por ciento, en comparación con las reducciones antes de que se usara. Cuando se le preguntó si la compañía también estaba midiendo los efectos del mundo real de NarxCare en la vida de los pacientes, Whalen dijo: "Estamos buscando activamente conjuntos de datos de resultados adicionales para poder hacer lo que está describiendo". Para Kathryn, al menos, el efecto de NarxCare en su vida y su salud ha sido bastante marcado. Además de su psiquiatra, dice: "No tengo un médico debido a este puntaje de NarxCare". Le preocupa lo que hará la próxima vez que su endometriosis brote o surja otra emergencia, y todavía lucha por obtener medicamentos para tratar su dolor. Y no son solo las prescripciones para el dolor de Kathryn las que deben surtirse. Aunque su perro Moose murió a fines de 2020, Bear sigue necesitando sus medicamentos, y desde entonces Kathryn ha adoptado a otro perro médicamente exigente, Mouse. Algunos estados han reconocido el problema de las recetas veterinarias mal identificadas y requieren que NarxCare las marque con una huella de pata o un ícono de un animal en las pantallas de los proveedores de salud. mira con cautela la pantalla de una computadora.