Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3901

Incidents associés

Incident 6992 Rapports
VA Suicide Prevention Algorithm REACH VET Reportedly Prioritizes Men Over Women Veterans

Loading...
L'algorithme de prévention du suicide des vétérans de VA favorise les hommes
military.com · 2024

Un programme d'intelligence artificielle (IA) conçu pour prévenir le suicide chez les anciens combattants de l'armée américaine donne la priorité aux hommes blancs et ignore les survivants de violences sexuelles, qui touchent un pourcentage bien plus élevé de femmes, selon une enquête menée par The Fuller Project.

L'algorithme, que le ministère des Anciens Combattants utilise pour cibler l'assistance aux patients « présentant le risque statistique de suicide le plus élevé », considère 61 variables, les documents montrent. Il accorde préférence aux anciens combattants « divorcés et de sexe masculin » et « veufs et de sexe masculin », mais à aucun groupe de femmes vétérans.

Les traumatismes sexuels militaires et la violence conjugale --- tous deux liés au risque de suicide élevé chez les femmes vétérans --- ne sont pas pris en compte. 

Les [données] gouvernementales récemment publiées(https://www.mentalhealth.va.gov/docs/data-sheets/2023/2023-National-Veteran-Suicide-Prevention-Annual-Report-FINAL-508.pdf) montrent un 24 % d'augmentation du taux de suicide chez les femmes vétérans entre 2020 et 2021 --- quatre fois l'augmentation chez les hommes vétérans au cours de cette période d'un an. Cette augmentation était également 10 fois supérieure à l’augmentation de 2,6 % enregistrée chez les femmes n’ayant jamais servi dans l’armée. 

"C'était déjà déjà assez difficile d'être une femme dans l'armée. Nous sommes harcelées, nous sommes victimes d'intimidation", a déclaré Paulette Yazzie, une vétéran de l'armée de l'air de 45 ans de la nation Navajo. Elle a servi 13 ans dans l'armée, dont une mission en Irak. "Maintenant, nous sommes poussés à l'arrière, encore une fois", a-t-elle déclaré.

Yazzie, un ancien sergent d'état-major, a fondu en larmes lorsqu'il a été informé que l'algorithme de prévention du suicide du VA donnait la priorité aux hommes.  Elle a déclaré qu'elle était constamment confrontée à un harcèlement sexuel et à des avances indésirables en Irak et qu'elle dormait avec la lumière allumée, la porte verrouillée et une chaise appuyée contre celle-ci pour une protection supplémentaire pendant son déploiement. 

"Ils pensent toujours à nous en second", a-t-elle déclaré. "Cela va coûter la vie à des gens."

Le VA présente son modèle d'apprentissage automatique, REACH VET, "comme la première utilisation clinique au pays d'un algorithme validé pour aider à identifier le risque de suicide".  Lancé en 2017, le système signale chaque mois à 6 700 anciens combattants une aide supplémentaire. Les responsables de VA affirment que cela produit une [réduction significative](https://www.nimh.nih.gov/news/science-news/2022/study-shows-reach-vet-program-effective-for-veterans-at-high -risk-for-suicide#:~:text=The%20program%20is%20the%20nation's,local%20REACH%20VET%20program%20coordinators.) dans les tentatives de suicide de ces vétérans au cours des six mois suivants. 

Le 13 mai, la sous-secrétaire à la santé de l'agence, Carolyn Clancy, a qualifié le système de « changeur de jeu » lors d'une audience au Congrès.

Dans une interview, Matthew Miller, directeur exécutif de la VA pour la prévention du suicide, a déclaré que l'agence avait pris en compte les traumatismes sexuels militaires, ainsi que des centaines d'autres variables, lors de l'élaboration de son algorithme. Mais les autorités ont décidé d'exclure du modèle les antécédents de viol ou d'agression, car ils ne figuraient pas parmi "les plus puissants pour prédire le risque de suicide", a-t-il déclaré.

Le VA utilise un programme national de dépistage qui demande à chaque ancien combattant s'il a subi un traumatisme sexuel militaire.  Environ 1 femme sur 3 et 1 homme sur 50 répondent « oui », en disant à leur prestataire que, alors qu'ils étaient en uniforme, ils avaient été forcés de endurer une activité sexuelle contre leur gré. Des enquêtes anonymes distinctes ont estimé ce chiffre à plus de 2 femmes sur 3 anciens combattants, signe potentiel d'une sous-déclaration importante.

L’algorithme a identifié le fait d’être un homme, en particulier un homme blanc, comme un facteur plus prédictif de suicide que les facteurs cliniques connus pour avoir un impact sur les femmes, a-t-il déclaré. Le divorce et le décès d'un conjoint étaient des facteurs prédictifs de risque de suicide lorsque la patiente était un homme, a ajouté Miller, mais pas lorsqu'elle était une femme.

"Il est offensant que VA puisse rationaliser en négligeant les femmes vétérans risquant de se suicider", a déclaré Allison Jaslow, directrice générale de Iraq and Afghanistan Veterans of America, à propos de l'algorithme. "C'est un problème très grave.".

Bien que les femmes vétérans constituent la population qui connaît la croissance la plus rapide, Jaslow a déclaré que les femmes sont habituellement ignorées.  Elle a cité comme exemple la lutte longue et finalement réussie pour amener le VA à concevoir des prothèses adaptées aux femmes. 

Meredith Broussard, directrice de recherche à l'Alliance for Public Interest Technology de l'Université de New York, a déclaré qu'elle doutait que le système d'IA de l'agence parvienne à des conclusions précises.

"Chaque fois que vous avez un algorithme qui semble favoriser le groupe majoritaire - par exemple les hommes blancs - et que quelqu'un dit 'ce ne sont que des mathématiques', il s'agit très probablement d'un biais systémique qui se manifeste dans les mathématiques", a déclaré Broussard. .

Bien que le taux de suicide chez les anciens combattants masculins reste plus élevé que celui de leurs homologues féminines, le taux chez les anciennes combattantes augmente plus rapidement.  Joy Ilem, directrice législative nationale pour les anciens combattants américains handicapés, a déclaré au Fuller Project qu'elle était "perplexe" par la décision du VA d'exclure une longue liste de facteurs connus pour augmenter le risque de suicide chez les femmes vétérans - y compris les traumatismes sexuels militaires et la violence conjugale. , grossesse, ménopause et possession d’armes à feu.

Ilem a noté que les propres [chercheurs](https://www.hsrd.research.va.gov/ publications/forum/spring18/default.cfm?ForumMenu=Spring18-5) ont découvert que les facteurs de risque de suicide sont différents pour les anciens combattants de sexe féminin et masculin. Compte tenu du taux de suicide croissant chez les femmes, il est logique de conclure que « quelque chose de plus adapté serait inclus », a-t-elle déclaré.

La question des biais algorithmiques a pris de l’ampleur ces dernières années. Les deux présidents Donald Trump  et Joe Biden ont publié des décrets pour promouvoir la transparence et la responsabilité des produits d’IA.  Le VA a identifié plus de 100 programmes couverts par ces décrets présidentiels. 

L'année dernière, Biden a publié deux ordonnances exigeant que les agences fédérales veillent à ce que les modèles d'IA ne perpétuent pas [la discrimination](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order- sur le développement et l'utilisation sûrs et dignes de confiance de l'intelligence artificielle/#:~:text=(d)%20Artificial%20Intelligence%20policies%20must,denied%20equal%20opportunity%20and% 20justice.). "Mon administration ne peut pas – et ne tolérera pas – l'utilisation de l'IA pour désavantager ceux qui se voient déjà trop souvent refuser l'égalité des chances et la justice", a-t-il déclaré.

Miller, directeur de la prévention du suicide du VA, a déclaré qu'il n'était pas sûr de ce que l'agence faisait pour se conformer aux ordres. Une enquête de suivi auprès du bureau de presse de VA n'a pas donné de détails.  "Le Bureau de prévention du suicide travaille avec le responsable de l'IA de VA et le directeur de la technologie (CTO) sur le développement d'examens et de contrôles de conformité", a indiqué l'agence dans un communiqué écrit. 

Le VA a refusé de fournir des données sur les anciens combattants signalés par l'algorithme REACH VET. L'agence tient un tableau de bord mensuel qui suit les patients et les résultats, mais un porte-parole de l'agence a déclaré que le VA ne partagerait ces informations que s'il recevait une demande en vertu de la Freedom of Information Act. 

Le VA est le plus grand système de santé intégré du pays, desservant 9 millions de personnes dans 172 hôpitaux et plus de 1 000 cliniques. Elle opère dans les 50 États, à Porto Rico, à Guam, dans les îles Vierges américaines et à Washington, DC. 

Le nombre de femmes utilisant les services VA a quintuplé depuis 2001, passant de 159 810 à plus de 800 000 aujourd’hui.  Les femmes représentent 30 % des nouveaux patients VA, selon l'agence.

Aaron Glantz est chef du bureau de Californie et rédacteur en chef de The Fuller Project, la salle de rédaction mondiale axée sur les femmes. Contactez-le à aglantz@fullerproject.org.

The Fuller Project est une salle de rédaction à but non lucratif dédiée à la couverture des problèmes des femmes dans le monde. Inscrivez-vous à la newsletter du projet Fuller et suivez [Twitter](https://twitter. com/FullerProject?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor) ou LinkedIn.

Les anciens combattants en crise ou ayant des pensées suicidaires, ou ceux qui connaissent un ancien combattant en crise, doivent appeler la ligne de crise des anciens combattants pour obtenir une assistance de crise confidentielle 24 heures sur 24, 365 jours par an : composez le 988, puis appuyez sur 1, discutez en ligne sur VeteransCrisisLine. net/Chat, ou envoyez un message texte au 838255.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd