Incidentes Asociados
Un programa de inteligencia artificial (IA) diseñado para prevenir el suicidio entre los veteranos militares estadounidenses da prioridad a los hombres blancos e ignora a los sobrevivientes de violencia sexual, que afecta a un porcentaje mucho mayor de mujeres, según una investigación de The Fuller Project.
El algoritmo, que utiliza el Departamento de Asuntos de Veteranos para orientar la asistencia a los pacientes "con el mayor riesgo estadístico de suicidio", considera 61 variables, según muestran los documentos. Da preferencia a los veteranos que son "divorciados y hombres" y "viudos y hombres", pero no a ningún grupo de mujeres veteranas.
El trauma sexual militar y la violencia de pareja, ambos vinculados al riesgo elevado de suicidio entre las mujeres veteranas, no se tienen en cuenta.
Los [datos] gubernamentales publicados recientemente (https://www.mentalhealth.va.gov/docs/data-sheets/2023/2023-National-Veteran-Suicide-Prevention-Annual-Report-FINAL-508.pdf) muestran un 24 % de aumento en la tasa de suicidio entre las mujeres veteranas entre 2020 y 2021: cuatro veces el aumento entre los hombres veteranos durante ese período de un año. También fue 10 veces mayor que el aumento del 2,6% entre las mujeres que nunca sirvieron en el ejército.
"Ya era bastante difícil ser una mujer en el ejército. Nos acosan, nos intimidan", dijo Paulette Yazzie, una veterana de la Fuerza Aérea de 45 años de la Nación Navajo. Sirvió 13 años en el ejército, incluida una gira en Irak. "Ahora nos están empujando hacia atrás, otra vez", dijo.
Yazzie, un ex sargento de personal, lloró cuando le informaron que el algoritmo de prevención del suicidio del VA priorizaba a los hombres. Dijo que enfrentó acoso sexual constante y avances no deseados en Irak y que dormía con la luz encendida, la puerta cerrada y una silla apoyada contra ella para protección adicional durante su despliegue.
"Siempre piensan en nosotros en segundo lugar", dijo. "Esto va a costar la vida a muchas personas".
El VA promociona su modelo de aprendizaje automático, REACH VET, "como el primer uso clínico en el país de un algoritmo validado para ayudar a identificar el riesgo de suicidio". Lanzado en 2017, el sistema solicita ayuda adicional a 6.700 veteranos al mes. Los funcionarios del VA dicen que produce una [reducción significativa](https://www.nimh.nih.gov/news/science-news/2022/study-shows-reach-vet-program- Effective-for-veterans-at-high -risk-for-suicide#:~:text=The%20program%20is%20the%20nation's,local%20REACH%20VET%20program%20coordinators.) en intentos de suicidio por parte de esos veteranos durante los siguientes seis meses.
El 13 de mayo, la subsecretaria de salud de la agencia, Carolyn Clancy, calificó el sistema como un "cambio de juego" durante una audiencia en el Congreso.
En una entrevista, Matthew Miller, director ejecutivo de prevención del suicidio del VA, dijo que la agencia consideró el trauma sexual militar, junto con cientos de otras variables, al elaborar su algoritmo. Pero los funcionarios decidieron excluir del modelo un historial de violación o agresión porque no estaba entre "los más poderosos para que podamos predecir el riesgo de suicidio", dijo.
El VA utiliza un programa de evaluación nacional que pregunta a todos los veteranos si han experimentado un trauma sexual militar. Aproximadamente 1 de cada 3 mujeres y 1 de cada 50 hombres responden "sí", diciéndole a su proveedor que, mientras vestían uniforme, los habían obligado a soportar la actividad sexual en contra de su voluntad. Encuestas anónimas separadas han puesto la cifra en más de 2 de cada 3 mujeres veteranos, una señal potencial de una subestimación sustancial.
El algoritmo identificó que ser hombre, especialmente un hombre blanco, es más predictivo de suicidio que los factores clínicos que se sabe que afectan a las mujeres, dijo. El divorcio y la muerte del cónyuge predecían el riesgo de suicidio cuando el paciente era hombre, añadió Miller, pero no cuando era mujer.
"Es ofensivo que el VA pueda racionalizar el pasar por alto a las mujeres veteranas en riesgo de suicidio", dijo sobre el algoritmo Allison Jaslow, directora ejecutiva de Veteranos de Estados Unidos de Irak y Afganistán. "Este es un tema muy serio.".
Aunque las mujeres veteranas son la población de más rápido crecimiento en el VA, Jaslow dijo que habitualmente se ignora a las mujeres. Citó como ejemplo la larga y finalmente exitosa lucha para lograr que el VA diseñara prótesis que se adaptaran a las mujeres.
Meredith Broussard, directora de investigación de la Alianza para la Tecnología de Interés Público de la Universidad de Nueva York, dijo que dudaba que el sistema de inteligencia artificial de la agencia alcanzara conclusiones precisas.
"Siempre que tienes un algoritmo que parece favorecer al grupo mayoritario (por ejemplo, los hombres blancos) y alguien dice 'es sólo matemática', lo más probable es que el sesgo sistémico se manifieste en las matemáticas", dijo Broussard. .
Aunque la tasa de suicidio entre los veteranos varones sigue siendo más alta que la de las mujeres, la tasa entre las veteranas está aumentando más rápidamente. Joy Ilem, directora legislativa nacional para Veteranos Estadounidenses Discapacitados, dijo a The Fuller Project que estaba "desconcertada" por la decisión del VA de excluir una larga lista de factores que se sabe que aumentan el riesgo de suicidio entre las mujeres veteranas, incluido el trauma sexual militar y la violencia de pareja. , embarazo, menopausia y posesión de armas de fuego.
Ilem señaló que los propios [investigadores](https://www.hsrd.research.va.gov/ publications/forum/spring18/default.cfm?ForumMenu=Spring18-5) han descubierto que los factores de riesgo de suicidio son diferentes para los veteranos mujeres y hombres. Dada la creciente tasa de suicidio entre las mujeres, tiene sentido concluir que "se incluiría algo más personalizado", afirmó.
La cuestión del sesgo algorítmico ha ganado fuerza en los últimos años. Ambos presidentes Donald Trump y Joe Biden emitieron órdenes ejecutivas para promover la transparencia y la responsabilidad de los productos de IA. El VA ha identificado más de 100 programas cubiertos por esos decretos presidenciales.
El año pasado, Biden emitió dos órdenes que exigen que las agencias federales garanticen que los modelos de IA no perpetúen la [discriminación](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order- sobre-el-desarrollo-y-uso-seguro-y-confiable-de-la-inteligencia-artificial/#:~:text=(d)%20Artificial%20Intelligence%20policies%20must,denied%20equal%20opportunity%20and% 20justicia). "Mi administración no puede, y no tolerará, el uso de la IA para poner en desventaja a aquellos a quienes ya con demasiada frecuencia se les niega la igualdad de oportunidades y la justicia", afirmó.
Miller, director de prevención del suicidio del VA, dijo que no estaba seguro de qué estaba haciendo la agencia para cumplir con las órdenes. Una consulta de seguimiento a la oficina de prensa de VA no arrojó detalles. "La Oficina de Prevención del Suicidio está trabajando con el líder de IA de VA y el director de tecnología (CTO) en el desarrollo de revisiones y monitores de cumplimiento", dijo la agencia en una declaración escrita.
El VA se negó a proporcionar datos sobre los veteranos marcados por el algoritmo REACH VET. La agencia mantiene un panel mensual que rastrea a los pacientes y los resultados, pero un portavoz de la agencia dijo que el VA solo compartiría esa información si recibiera una solicitud de la Ley de Libertad de Información.
El VA es el sistema de atención médica integrado más grande del país y presta servicios a 9 millones de personas en 172 hospitales y más de 1000 clínicas. Opera en los 50 estados, Puerto Rico, Guam, las Islas Vírgenes de EE. UU. y Washington, DC.
El número de mujeres que utilizan los servicios de VA se ha quintuplicado desde 2001, pasando de 159.810 entonces a más de 800.000 en la actualidad. Las mujeres representan el 30% de los nuevos pacientes del VA, según la agencia.
Aaron Glantz es jefe de la oficina de California y editor senior de The Fuller Project, la sala de redacción global centrada en las mujeres. Comuníquese con él en aglantz@fullerproject.org.
El Proyecto Fuller es una sala de redacción sin fines de lucro dedicada a la cobertura de temas de mujeres en todo el mundo. Suscríbase al boletín informativo del Proyecto Fuller y síganos en [Twitter](https://twitter. com/FullerProject?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor) o LinkedIn.
Los veteranos en crisis o que tienen pensamientos suicidas, o aquellos que conocen a un veterano en crisis, deben llamar a la Línea de crisis para veteranos para obtener apoyo confidencial en caso de crisis las 24 horas del día, los 365 días del año: marque 988 y luego presione 1, chatee en línea en VeteransCrisisLine. net/Chat, o envía un mensaje de texto al 838255.