Incidents associés
Pendant la majeure partie de sa vie, Tammy Dobbs, qui souffre de paralysie cérébrale, s'est appuyée sur sa famille dans le Missouri pour ses soins. Mais en 2008, elle a déménagé en Arkansas, où elle s'est inscrite à un programme d'État qui prévoyait qu'un gardien lui apporterait l'aide dont elle avait besoin. Là, dans le cadre d'un programme de dispense de Medicaid, les évaluateurs ont interrogé les bénéficiaires et décidé de la fréquence à laquelle le gardien devait se rendre. Les besoins de Dobbs étaient considérables. Sa maladie l'a laissée dans un fauteuil roulant et ses mains se sont raidies. Les tâches les plus élémentaires de la vie - sortir du lit, aller aux toilettes, prendre un bain - nécessitaient de l'aide, sans parler des voyages aux vide-greniers qu'elle chérissait. L'infirmière évaluant sa situation a attribué à Dobbs 56 heures de visites à domicile par semaine, le maximum autorisé par le programme. Pendant des années, elle s'est bien débrouillée. Un assistant arrivait tous les jours à 8 heures du matin, aidait Dobbs à sortir du lit, à aller dans la salle de bain, puis préparait le petit-déjeuner. Elle revenait au déjeuner, puis à nouveau le soir pour le dîner et toutes les tâches ménagères à accomplir, avant d'aider Dobbs à se coucher. Les derniers instants étaient particulièrement importants : partout où Dobbs était placée pour dormir, elle restait jusqu'à ce que l'aide revienne 11 heures plus tard. Dobbs a reçu des réévaluations régulières de ses besoins, mais elles ne l'ont pas inquiétée. Elle ne se rétablirait pas, après tout, il ne semblait donc pas probable que des changements soient apportés à ses soins. Lorsqu'un évaluateur est arrivé en 2016 et a passé en revue sa situation, c'était un processus familier : de combien d'aide avait-elle besoin pour aller aux toilettes ? Qu'en est-il de manger? Comment était son état émotionnel ? La femme a tapé des notes sur un ordinateur et, quand ce fut fini, a donné à Dobbs un verdict choquant : ses heures seraient réduites à seulement 32 par semaine. Dobbs dit qu'elle est devenue "balistique" sur la femme. Elle a plaidé, expliquant que cela ne suffisait tout simplement pas, mais aucun d'eux, dit Dobbs, ne semblait tout à fait comprendre ce qui se passait. La situation de Dobbs ne s'était pas améliorée, mais un changement invisible s'était produit. Lorsque l'évaluateur a saisi les informations de Dobbs dans l'ordinateur, il a parcouru un algorithme que l'État avait récemment approuvé, déterminant le nombre d'heures d'aide qu'elle recevrait. D'autres personnes dans l'État avaient également du mal à comprendre les changements souvent drastiques. Alors que les participants au programme se parlaient, des centaines d'entre eux se sont plaints que leur bouée de sauvetage la plus importante avait été coupée, et ils étaient incapables de comprendre pourquoi. Des outils algorithmiques comme celui que l'Arkansas a institué en 2016 sont partout, des soins de santé aux forces de l'ordre, modifiant des vies d'une manière que les personnes concernées ne peuvent généralement qu'entrevoir, si elles savent qu'elles sont utilisées. Même si les détails des algorithmes sont accessibles, ce qui n'est pas toujours le cas, ils échappent souvent à la compréhension même des personnes qui les utilisent, ce qui soulève des questions sur ce que signifie la transparence à une époque automatisée et des inquiétudes quant à la capacité des gens à contester décisions prises par des machines. Planifiant la réduction des soins, Dobbs a calculé ce dont elle pourrait se passer, choisissant entre des voyages à l'église ou la propreté de la maison. Elle avait toujours touché à la poésie et écrivit plus tard une pièce simple de sept strophes intitulée "Hour Dilemma", destinée à l'État. Elle a écrit que l'institutionnalisation serait un «cauchemar» et a demandé à l'État «de revenir à l'évaluation basée sur l'homme». Le changement a laissé Dobbs dans une situation dans laquelle elle n'aurait jamais pensé se trouver, car le programme sur lequel elle s'était appuyée pendant des années est tombé en dessous d'elle. "Je pensais qu'ils prendraient soin de moi", dit-elle. L'algorithme qui a bouleversé la vie de Dobbs tient confortablement, une fois imprimé, sur environ 20 pages. Bien qu'il soit difficile à déchiffrer sans l'aide d'un expert, l'algorithme calcule environ 60 descriptions, symptômes et affections - fièvre, perte de poids, utilisation d'un ventilateur - en catégories, chacune correspondant à un nombre d'heures de soins à domicile. Comme de nombreuses industries, les soins de santé se sont tournés vers l'automatisation pour plus d'efficacité. L'algorithme utilisé dans l'Arkansas fait partie d'une famille d'outils, appelés "instruments", qui tentent de fournir un instantané de la santé d'une personne afin d'éclairer les décisions concernant les soins partout, des maisons de retraite aux hôpitaux et aux prisons. L'instrument utilisé en Arkansas a été conçu par InterRAI, une coalition à but non lucratif de chercheurs en santé du monde entier. Brant Fries, professeur à l'Université du Michigan au Département de gestion et de politique de la santé de l'école, qui est maintenant président d'InterRAI, a commencé à développer des algorithmes dans les années 1980, à l'origine destinés aux maisons de retraite. Les instruments sont concédés sous licence aux fournisseurs de logiciels pour une « petite redevance », dit-il, et les utilisateurs sont invités à renvoyer les données à InterRAI. Les outils du groupe sont utilisés dans les établissements de santé de près de la moitié des États américains, ainsi que dans plusieurs pays. Dans les soins à domicile, le problème de l'attribution de l'aide est particulièrement aigu. Les États-Unis ne sont pas suffisamment préparés pour prendre soin d'une population qui vit plus longtemps, et la situation a causé des problèmes à la fois aux personnes qui ont besoin de soins et aux aides elles-mêmes, dont certaines disent être amenées à travailler des heures non rémunérées. À mesure que les besoins augmentent, les États ont été incités à rechercher de nouvelles façons de contenir les coûts et de répartir les ressources dont ils disposent. Les États ont emprunté des voies divergentes pour résoudre le problème, selon Vincent Mor, un professeur Brown qui étudie les politiques de santé et est membre d'InterRAI. La Californie, dit-il, a un système de soins à domicile tentaculaire à plusieurs niveaux, tandis que certains petits États s'appuient uniquement sur des évaluations personnelles. Avant d'utiliser le système algorithmique, les évaluateurs de l'Arkansas avaient une grande latitude pour attribuer les heures qu'ils jugeaient nécessaires. Dans de nombreux États, "vous remplissez les conditions d'éligibilité, un gestionnaire de cas, une infirmière ou un travailleur social établira un plan individualisé pour vous", explique Mor. L'Arkansas a déclaré que l'ancien système basé sur l'homme était mûr pour le favoritisme et les décisions arbitraires. "Nous savions qu'il y aurait des changements pour certaines personnes car, encore une fois, cette évaluation est beaucoup plus objective", a déclaré un porte-parole à l'Arkansas Times après la mise en place du système. Les bénéficiaires de l'aide ont souligné le manque de preuves montrant un tel parti pris de la part de l'État. Les responsables de l'Arkansas affirment également qu'un pourcentage substantiel de personnes ont vu leurs heures augmenter, tandis que les bénéficiaires affirment que l'État n'a pas non plus été en mesure de produire des données sur l'étendue des changements dans les deux sens. Le département des services sociaux de l'Arkansas, qui administre le programme, a refusé de répondre aux questions de cette histoire, citant un procès en cours devant un tribunal d'État. Lorsque des systèmes de soins de santé similaires ont été automatisés, ils n'ont pas toujours fonctionné parfaitement et leurs erreurs peuvent être difficiles à corriger. La chercheuse Danielle Keats Citron cite l'exemple du Colorado, où les codeurs ont placé plus de 900 règles incorrectes dans son système de prestations publiques au milieu des années 2000, entraînant des problèmes tels que le refus de Medicaid aux femmes enceintes. Des problèmes similaires en Californie, écrit Citron dans un article, ont conduit à "des trop-payés, des sous-paiements et des résiliations abusives des prestations publiques", car les enfants en famille d'accueil se sont vu refuser à tort Medicaid. Citron écrit sur la nécessité d'une "procédure technologique régulière" - l'importance à la fois de comprendre ce qui se passe dans les systèmes automatisés et de disposer de moyens significatifs pour les contester. Les critiques soulignent que, lors de la conception de ces programmes, les incitations ne sont pas toujours alignées sur des interfaces simples et des processus intelligibles. Virginia Eubanks, l'auteur de Automating Inequality, affirme que de nombreux programmes aux États-Unis sont "fondés sur l'idée que leur premier travail est la diversion", augmentant les obstacles aux services et rendant parfois le processus si difficile à naviguer "que cela signifie simplement que les gens qui ont vraiment besoin de ces services ne peuvent pas les obtenir. L'un des cas les plus bizarres s'est produit dans l'Idaho, où l'État a tenté, comme l'Arkansas, d'instituer un algorithme d'allocation des fonds pour les soins à domicile et l'intégration communautaire, mais l'a construit en interne. Le programme de soins à domicile de l'État a calculé ce qu'il en coûterait pour s'occuper de personnes gravement handicapées, puis a alloué des fonds pour payer l'aide. Mais vers 2011, lorsqu'une nouvelle formule a été instituée, ces fonds ont soudainement chuté précipitamment pour de nombreuses personnes, jusqu'à 42 %. Lorsque les personnes dont les prestations ont été réduites ont tenté de déterminer comment leurs prestations étaient déterminées, l'État a refusé de divulguer la formule qu'il utilisait, affirmant que ses calculs étaient qualifiés de secret commercial. En 2012, la branche locale de l'ACLU a intenté une action au nom des bénéficiaires du programme, arguant que les actions de l'Idaho les avaient privés de leurs droits à une procédure régulière. Au tribunal, il a été révélé que, lorsque l'État construisait son outil, il s'appuyait sur des données profondément erronées et en jetait la plupart immédiatement. Pourtant, l'État a continué avec les données qui restaient. "Cela a vraiment, vraiment mal tourné à chaque étape du processus de développement de ce type de formule", a déclaré le directeur juridique de l'ACLU de l'Idaho, Richard Eppink. Plus important encore, lorsque le système de l'Idaho s'est détraqué, il était impossible pour la personne moyenne de comprendre ou de contester. Un tribunal a écrit que "les participants ne reçoivent aucune explication pour le refus, n'ont aucune norme écrite à laquelle se référer pour obtenir des conseils et n'ont souvent aucun membre de la famille, tuteur ou aide rémunérée pour les aider". Le processus d'appel était difficile à naviguer, et Eppink dit que c'était "vraiment dénué de sens" de toute façon, car les personnes qui ont reçu des appels ne pouvaient pas non plus comprendre la formule. Ils regardaient le système et disaient: "Cela dépasse mon autorité et mon expertise de remettre en question la qualité de ce résultat." L'Idaho a depuis accepté d'améliorer l'outil et de créer un système qui, selon Eppink, sera plus "transparent, compréhensible et équitable". Il dit qu'il pourrait y avoir une formule idéale là-bas qui, lorsque les bonnes variables sont entrées, a des engrenages qui tournent sans frottement, allouant l'assistance de la manière parfaite. Mais si le système est si complexe qu'il est impossible de le rendre intelligible pour les personnes qu'il affecte, il ne fait pas son travail, soutient Eppink. "Vous devez être capable de comprendre ce qu'une machine a fait." "C'est un argument", dit Fries. "Je trouve ça vraiment étrange." Il est sympathique aux gens qui ont vu leurs heures réduites dans l'Arkansas. Chaque fois que l'un de ses systèmes est mis en œuvre, dit-il, il recommande que les personnes bénéficiant d'anciens programmes bénéficient de droits acquis, ou du moins que leurs soins soient ajustés progressivement ; les personnes participant à ces programmes « ne vivront probablement pas aussi longtemps », dit-il. Il suggère également de donner aux humains une certaine latitude pour ajuster les résultats, et il reconnaît que passer rapidement d'un système « irrationnel » à un système « rationnel », sans expliquer correctement pourquoi, est douloureux. Les responsables de l'Arkansas, dit-il, n'ont pas écouté ses conseils. "Ce qu'ils ont fait était, dans mon esprit, vraiment stupide", dit-il. Les gens qui étaient habitués à un certain niveau de soins ont été poussés dans un nouveau système, "et ils ont crié". Fries dit qu'il sait que le processus d'évaluation - faire venir une personne, donner une interview, entrer des chiffres dans une machine et lui faire cracher une décision - n'est pas nécessairement confortable. Mais, dit-il, le système offre un moyen de répartir les soins qui est soutenu par des études. "On pourrait dire que tout le monde devrait recevoir beaucoup plus de soins", dit-il, mais un algorithme permet aux responsables de l'État de faire ce qu'ils peuvent avec les ressources dont ils disposent. Quant à la transparence du système, il convient que l'algorithme est impossible à comprendre facilement pour la plupart, mais dit que ce n'est pas un problème. "Ce n'est pas simple", dit-il. "Ma machine à laver n'est pas simple." Mais si vous pouvez capturer la complexité plus en détail, affirme Fries, cela servira finalement mieux le public, et à un moment donné, "vous allez devoir me faire confiance qu'un groupe de personnes intelligentes a déterminé que c'était la façon intelligente de faire ce." Peu de temps après que l'Arkansas ait commencé à utiliser l'algorithme en 2016, Kevin De Liban, un avocat de Legal Aid of Arkansas, a commencé à recevoir des plaintes. Quelqu'un a dit qu'il avait été hospitalisé parce que ses soins avaient été coupés. Un tas d'autres ont écrit sur les réajustements radicaux. De Liban a appris le changement pour la première fois par un bénéficiaire du programme nommé Bradley Ledgerwood. La famille Ledgerwood vit dans la petite ville de Cash, dans le nord-est de l'État. Bradley, le fils, est atteint de paralysie cérébrale, mais reste actif, suit le basket-ball et la politique républicaine et siège au conseil municipal. Quand Bradley était plus jeune, sa grand-mère s'occupait de lui pendant la journée, mais à mesure qu'il grandissait et grandissait, elle ne pouvait plus le soulever et la situation devenait intenable. Les parents de Bradley ont débattu de ce qu'il fallait faire et ont finalement décidé que sa mère, Ann, resterait à la maison pour s'occuper de lui. La décision signifiait un coup dur financier; Ann avait un travail d'évaluation pour le comté qu'elle devrait quitter. Mais le programme de l'Arkansas leur a donné une voie pour récupérer une partie de ces pertes. L'État rembourserait à Ann un petit taux horaire pour la dédommager de la prise en charge de Bradley, le nombre d'heures remboursables étant déterminé par une évaluation de ses besoins en matière de soins. Lorsque l'État est passé à son nouveau système, les heures de la famille Ledgerwood ont également été considérablement réduites. Bradley avait traité avec le département des services sociaux de l'Arkansas, qui administrait le programme, lors d'une précédente bataille concernant un différend sur les heures de soins à domicile et avait contacté De Liban, qui avait accepté de se pencher sur la question. Avec Bradley et une femme âgée nommée Ethel Jacobs comme plaignants, Legal Aid a déposé une plainte fédérale en 2016, arguant que l'État avait institué une nouvelle politique sans informer correctement les personnes concernées du changement. Il n'y avait également aucun moyen de contester efficacement le système, car ils ne pouvaient pas comprendre quelles informations étaient prises en compte dans les changements, a expliqué De Liban. Personne ne semblait capable de répondre aux questions de base sur le processus. « Les infirmières ont dit : ‘Ce n’est pas moi ; c'est l'ordinateur », dit De Liban. À l'époque, ils savaient qu'il s'agissait d'une sorte de nouveau système informatique, mais il n'y avait aucune mention d'un algorithme ; les calculs derrière le changement ne sont sortis qu'après le dépôt de la plainte. "Cela n'avait aucun sens pour moi au début", dit De Liban. Lorsqu'ils ont creusé dans le système, ils en ont découvert plus sur son fonctionnement. Sur la longue liste d'éléments sur lesquels les évaluateurs ont posé des questions, seuls 60 environ ont été pris en compte dans l'algorithme des soins à domicile. L'algorithme note les réponses à ces questions, puis trie les personnes en catégories via un système de type organigramme. Il s'est avéré qu'un petit nombre de variables pouvait avoir une énorme importance : pour certaines personnes, une différence entre un score de trois au lieu de quatre sur l'un des quelques éléments signifiait une réduction de dizaines d'heures de soins par mois. (Fries n'a pas dit que c'était mal, mais a dit, lorsqu'il s'agissait de ces systèmes, "il y a toujours des gens à la marge qui vont être problématiques".) De Liban a commencé à tenir une liste de ce qu'il considérait comme "des absurdités ». L'une des variables de l'évaluation était les problèmes de pieds. Lorsqu'un évaluateur a rendu visite à une certaine personne, il a écrit que la personne n'avait aucun problème - parce qu'elle était amputée. Au fil du temps, dit De Liban, ils ont découvert des scores extrêmement différents lorsque les mêmes personnes étaient évaluées, bien qu'elles soient dans le même état. (Fries dit que des études suggèrent que cela se produit rarement.) De Liban dit également que des changements négatifs, comme une personne qui contracte une pneumonie, pourraient contre-intuitivement les amener à recevoir moins d'heures d'aide parce que l'algorithme de type organigramme les placerait dans une catégorie différente. (Fries a nié cela, affirmant que l'algorithme en était responsable.) Mais du point de vue de l'État, le moment le plus embarrassant du différend s'est produit lors de l'interrogatoire devant le tribunal. Fries a été appelé pour répondre aux questions sur l'algorithme et a patiemment expliqué à De Liban le fonctionnement du système. Après quelques allers-retours, De Liban a proposé une suggestion : "Seriez-vous capable de prendre le rapport d'évaluation de quelqu'un et de le classer ensuite dans une catégorie ?" (Il a dit plus tard qu'il voulait comprendre quels changements déclenchaient la réduction d'une année à l'autre.) Fries a dit qu'il le pouvait, même si cela prendrait un peu de temps. Il regarda les chiffres d'Ethel Jacobs. Après une pause, un avocat de l'État est revenu et a admis timidement devant le tribunal : il y avait une erreur. D'une manière ou d'une autre, le mauvais calcul a été utilisé. Ils ont dit qu'ils rétabliraient les heures de Jacobs. "Bien sûr, nous sommes ravis que le DHS ait signalé l'erreur et certainement heureux qu'elle ait été découverte, mais cela prouve presque le but de l'affaire", a déclaré De Liban devant le tribunal. «Il y a ce système extrêmement complexe autour duquel aucune norme n'a été publiée, de sorte que personne dans leur agence ne l'a compris jusqu'à ce que nous engagions un litige fédéral et que nous dépensions des centaines d'heures et des milliers de dollars pour arriver ici aujourd'hui. C'est le problème." Il est ressorti de l'affaire judiciaire que le problème venait d'un fournisseur de logiciels tiers mettant en œuvre le système, qui utilisait par erreur une version de l'algorithme qui ne tenait pas compte des problèmes de diabète. Il y avait aussi un problème distinct avec la paralysie cérébrale, qui n'était pas correctement codée dans l'algorithme, et qui a causé des calculs incorrects pour des centaines de personnes, réduisant principalement leurs heures. "Pour autant que nous le sachions, nous le faisions de la bonne manière", a déclaré Douglas Zimmer, président du fournisseur, une société appelée Center for Information Management, à propos de l'utilisation de l'algorithme qui n'incluait pas les problèmes de diabète. New York utilise également cette version de l'algorithme. Il dit que le problème de codage de la paralysie cérébrale était "une erreur de notre part". "Si les États utilisent quelque chose de si complexe qu'ils ne le comprennent pas, comment savons-nous que cela fonctionne correctement?" dit De Liban. « Et s'il y a des erreurs ? » Fries a écrit plus tard dans un rapport à l'État qu'environ 19% de tous les bénéficiaires ont été affectés négativement par l'omission du diabète. Il m'a dit que les algorithmes échangés équivalaient à un "appel très, très marginal" et que, dans l'ensemble, il n'était pas déraisonnable pour l'État de continuer à utiliser le système qui attribuait moins d'heures, comme New York l'a décidé. Dans le rapport et avec moi, il a déclaré que le changement du diabète n'était pas une "erreur", bien que le rapport indique que l'algorithme le plus largement utilisé correspondait "un peu mieux" à l'Arkansas. Un élément répertorié comme un "pro" dans le rapport : le retour à l'algorithme d'origine était "sensible au résultat du procès", car cela augmenterait les heures des plaignants à un niveau proche de leurs niveaux précédents. Il n'est pas clair si l'État a depuis commencé à compter les problèmes de diabète. En décembre, un responsable a déclaré qu'il pensait que ce n'était pas le cas. Le ministère des Services sociaux a refusé de commenter. Mais dans les e-mails internes vus par The Verge, les responsables de l'Arkansas ont discuté de l'erreur de codage de la paralysie cérébrale et de la meilleure ligne de conduite. Sur une chaîne de courrier électronique, les responsables ont suggéré que, puisque certaines des personnes dont les heures ont été réduites n'ont pas fait appel de la décision, elles ont effectivement renoncé à leur droit légal de la combattre. ("Comment est-ce que quelqu'un est censé faire appel et déterminer qu'il y a un problème avec le logiciel alors que le DHS lui-même n'a pas déterminé cela ?" dit De Liban.) Mais après quelques discussions, l'un d'eux a finalement dit : "Nous avons maintenant été effectivement informés qu'il les personnes qui n'ont pas reçu les services dont elles avaient réellement besoin, et les compenser pour cette lacune semble être la bonne chose à faire. Cela «placerait également le DHS du bon côté de l'histoire». Le juge dans l'affaire du tribunal fédéral a finalement statué que l'État n'avait pas suffisamment mis en œuvre le programme. L'État a également apporté par la suite des modifications pour aider les gens à comprendre le système, y compris des listes indiquant exactement quels éléments de leurs évaluations ont changé d'année en année. Mais De Liban dit qu'il y avait un problème plus large : les gens n'ont pas reçu assez d'aide en général. Bien que l'algorithme fixe les proportions de soins – un niveau de soins, par exemple, peut être deux ou trois fois plus élevé qu'un autre – c'est la décision de l'État de décider du nombre d'heures à insérer dans l'équation. "Le montant accordé est autant une question politique qu'une question d'administration des services", déclare Mor. Fries dit qu'il n'y a pas de meilleure pratique pour alerter les gens sur le fonctionnement d'un algorithme. "C'est probablement quelque chose que nous devrions faire", a-t-il dit lorsque j'ai demandé si son groupe devait trouver un moyen de communiquer le système. "Ouais, je devrais aussi probablement épousseter sous mon lit." Par la suite, il a précisé qu'il pensait que c'était le travail des personnes mettant en œuvre le système. De Liban dit que le processus pour les gens faisant appel de leurs coupes a été effectivement sans valeur pour la plupart. Sur 196 personnes qui ont fait appel d'une décision à un moment donné avant la décision, seules neuf ont gagné, et la plupart d'entre elles étaient des clients de l'aide juridique qui se disputaient pour des motifs de procédure. Bien qu'il soit difficile de le savoir, De Liban dit qu'il est très possible que certains aient eu des erreurs dont ils n'étaient pas au courant. Eubanks, l'auteur de Automating Inequality, écrit sur le « hospice numérique », montrant comment l'automatisation peut donner un nouvel éclat à la maltraitance de longue date des personnes vulnérables. Elle m'a dit qu'il existe une « confiance naturelle » dans le fait que les systèmes informatisés produiront des résultats impartiaux et neutres. "Je suis sûre que c'est le cas dans certains cas, mais je peux dire avec une bonne dose de confiance que ce n'est pas aussi descriptif ou prédictif que le prétendent les défenseurs de ces systèmes", dit-elle. Eubanks propose un test pour évaluer les algorithmes dirigés vers les pauvres, notamment en demandant si l'outil augmente leur agentivité et s'il serait acceptable de l'utiliser avec des personnes plus riches. Il ne semble pas évident que le système de l'Arkansas réussirait ce test. Dans un signe, les responsables ont été déçus par le système, ils ont déclaré qu'ils migreraient bientôt vers un nouveau système et fournisseur de logiciels, calculant probablement les heures d'une manière différente, bien que l'on ne sache pas exactement ce que cela signifiera pour les personnes dans le programme. Dobbs a bien fait jusqu'à présent. Sa maison est située sur une route sinueuse sur une colline au bord d'un lac, parsemée en hiver d'arbres dénudés. Lorsque le soleil se couche dans l'après-midi, la lumière pénètre par les fenêtres et capture la collection de plantes que Dobbs gère avec l'aide d'un assistant. Un chien débraillé et chandail nommé Spike sautillait avec enthousiasme lors de ma visite récente, alors qu'un chat pelucheux jockeyait pour attirer l'attention. "Parfois, je les aime mieux que les humains", dit Dobbs. Au mur se trouvaient une collection de souvenirs de la dynastie Duck et une photo encadrée d'elle avec Kenny Rogers lorsqu'elle travaillait dans le bâtiment du Missouri alors connu sous le nom de Kenny Rogers United Cerebral Palsy Center. Pour le moment, elle est coincée dans les limbes. Elle sera bientôt soumise à une autre réévaluation, et bien qu'il soit presque certain, d'après ce que l'on sait du système, qu'elle recevra une coupe, il est difficile de dire à quel point ce sera grave. Elle a traversé le processus plus d'une fois maintenant. Ses heures ont été brièvement rétablies après qu'un juge a statué en faveur des plaignants dans le procès fédéral, seulement pour qu'elles soient à nouveau réduites après que l'État a modifié son système de notification pour se conformer à la décision et a réimplémenté l'algorithme. Alors qu'elle passait en appel, le Département des services sociaux, dit De Liban, a discrètement rétabli ses heures de travail. C'était, dit-il, juste au moment où le problème de la paralysie cérébrale a été découvert. Il dit que c'est peut-être la raison pour laquelle il a été abandonné : pour sauver la face. Mais comme de nombreuses personnes aux prises avec les changements pourraient le comprendre, il est difficile de le savoir avec certitude.