Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2844

Incidents associés

Incident 5023 Rapports
Pennsylvania County's Family Screening Tool Allegedly Exhibited Discriminatory Effects

Loading...
Pas magique : un outil d'IA opaque peut signaler les parents handicapés
apnews.com · 2023

PITTSBURGH (AP) – Pendant les deux semaines où la petite fille des Hackneys est restée dans un lit d'hôpital de Pittsburgh affaiblie par la déshydratation, ses parents l'ont rarement quittée, dormant parfois sur le canapé convertible de la chambre.

Ils sont restés avec leur fille 24 heures sur 24 lorsqu'elle a été transférée dans un centre de réadaptation pour reprendre des forces. Enfin, la fillette de 8 mois a cessé de battre ses biberons et a recommencé à reprendre du poids.

"Elle allait bien et nous avons commencé à lui demander quand peut-elle rentrer chez elle", a déclaré Lauren Hackney. "Et puis à partir de ce moment-là, à l'époque, ils nous ont complètement bloqués."

Le couple a été stupéfait lorsque des responsables de la protection de l'enfance se sont présentés, leur ont dit qu'ils étaient négligents et ont emmené leur fille.

"Ils avaient des papiers de garde et ils l'ont emmenée sur-le-champ", se souvient Lauren Hackney. "Et nous avons commencé à pleurer."

Plus d'un an plus tard, leur fille, maintenant âgée de 2 ans, reste en famille d'accueil et les Hackney, qui ont des troubles du développement, ont du mal à comprendre comment emmener leur fille à l'hôpital alors qu'elle refusait de manger pouvait être considérée comme si négligente qu'elle doivent être emmenés de chez elle.

Ils se demandent si un outil d'intelligence artificielle que le département des services sociaux du comté d'Allegheny utilise pour prédire quels enfants pourraient être en danger les a isolés en raison de leur handicap.

Le ministère américain de la Justice pose la même question. L'agence enquête sur le système de protection de l'enfance du comté pour déterminer si son utilisation de l'algorithme influent est discriminatoire à l'égard des personnes handicapées ou d'autres groupes protégés, a appris l'Associated Press. Plus tard ce mois-ci, les avocats fédéraux des droits civiques interrogeront les Hackneys et la mère d'Andrew Hackney, Cynde Hackney-Fierro, a déclaré la grand-mère.

Lauren Hackney souffre d'un trouble d'hyperactivité avec déficit de l'attention qui affecte sa mémoire, et son mari, Andrew, souffre d'un trouble de la compréhension et de lésions nerveuses suite à un accident vasculaire cérébral subi dans la vingtaine. Leur petite fille avait 7 mois lorsqu'elle a commencé à refuser ses biberons. Confrontés à une pénurie nationale de formules, ils ont voyagé de la Pennsylvanie à la Virginie-Occidentale à la recherche d'un produit et ont été contraints de changer de marque. Le bébé n'avait pas l'air d'aimer ça.

Son pédiatre les a d'abord rassurés sur le fait que les bébés peuvent être inconstants à se nourrir et a proposé des idées pour l'aider à retrouver l'appétit, ont-ils déclaré.

Quand elle est devenue léthargique quelques jours plus tard, ont-ils dit, le même médecin leur a dit de l'emmener aux urgences. Les Hackneys pensent que le personnel médical a alerté les services de protection de l'enfance après s'être présenté avec un bébé déshydraté et mal nourri.

C'est à ce moment-là qu'ils pensent que leurs informations ont été introduites dans l'outil de dépistage familial d'Allegheny, qui, selon les responsables du comté, est la procédure standard pour les allégations de négligence. Bientôt, un travailleur social est apparu pour les interroger et leur fille a été envoyée en famille d'accueil.

Au cours des six dernières années, le comté d'Allegheny a servi de laboratoire du monde réel pour tester des outils de protection de l'enfance basés sur l'IA qui analysent des tonnes de données sur les familles locales pour essayer de prédire quels enfants sont susceptibles de faire face à un danger dans leur foyer. Aujourd'hui, les agences de protection de l'enfance d'au moins 26 États et de Washington, D.C., ont envisagé d'utiliser des outils algorithmiques, et des juridictions d'au moins 11 les ont déployés, selon l'American Civil Liberties Union.

L'histoire des Hackneys - basée sur des entretiens, des e-mails internes et des documents juridiques - illustre l'opacité entourant ces algorithmes. Même s'ils se battent pour récupérer la garde de leur fille, ils ne peuvent pas remettre en question le "score de risque" que l'outil du comté d'Allegheny a pu lui attribuer, car les autorités ne le leur divulguent pas. Et ni le comté ni les personnes qui ont construit l'outil n'ont expliqué quelles variables auraient pu être utilisées pour mesurer les capacités des Hackney en tant que parents.

"C'est comme si vous aviez un problème avec quelqu'un qui a un handicap", a déclaré Andrew Hackney. "Dans ce cas … vous finissez probablement par vous attaquer à tous ceux qui ont des enfants et qui ont un handicap."

Dans le cadre d'une enquête d'un an, l'AP a obtenu les points de données sous-tendant plusieurs algorithmes déployés par les agences de protection de l'enfance, dont certains marqués "CONFIDENTIEL", offrant un aperçu rare des mécanismes à l'origine de ces technologies émergentes. Parmi les facteurs qu'ils ont utilisés pour calculer le risque d'une famille, que ce soit directement ou par procuration : la race, les taux de pauvreté, le statut d'invalidité et la taille de la famille. Ils incluent si une mère a fumé avant d'être enceinte et si une famille a déjà eu des plaintes de maltraitance ou de négligence à l'égard d'un enfant.

Ce qu'ils mesurent compte. Une analyse récente par des chercheurs de l'ACLU a révélé que lorsque l'algorithme d'Allegheny signalait les personnes qui accédaient aux services du comté pour la santé mentale et d'autres programmes de santé comportementale, cela pouvait ajouter jusqu'à trois points au score de risque d'un enfant, une augmentation significative sur une échelle de 20.

Le porte-parole du comté d'Allegheny, Mark Bertolet, a refusé d'aborder l'affaire Hackney et n'a pas répondu aux questions détaillées sur le statut de l'enquête fédérale ou les critiques des données alimentant l'outil, y compris par l'ACLU.

"Par principe, nous ne commentons pas les poursuites ou les questions juridiques", a déclaré Bertolet dans un e-mail.

La porte-parole du ministère de la Justice, Aryele Bradford, a refusé de commenter.

Les développeurs de l'outil, Rhema Vaithianathan, professeur d'économie de la santé à l'Université de technologie d'Auckland en Nouvelle-Zélande, et Emily Putnam-Hornstein, professeur à l'Université de Caroline du Nord à la Chapel Hill's School of Social Work, ont déclaré que leur travail était transparent et que ils rendent leurs modèles publics.

"Dans chaque juridiction dans laquelle un modèle a été entièrement mis en œuvre, nous avons publié une description des champs qui ont été utilisés pour créer l'outil", ont-ils déclaré par e-mail.

Les développeurs ont lancé de nouveaux projets avec des agences de protection de l'enfance du comté de Northampton, en Pennsylvanie, et du comté d'Arapahoe, au Colorado. Les États de Californie et de Pennsylvanie, ainsi que la Nouvelle-Zélande et le Chili, leur ont également demandé de faire des travaux préliminaires.

Vaithianathan a récemment conseillé des chercheurs au Danemark et des fonctionnaires des Émirats arabes unis sur la technologie dans les services à l'enfance.

L'année dernière, le département américain de la Santé et des Services sociaux a financé une étude nationale, co-écrite par Vaithianathan et Putnam-Hornstein, qui a conclu que leur approche globale à Allegheny pourrait être un modèle pour d'autres endroits.

La porte-parole de l'Administration pour les enfants et les familles du HHS, Debra Johnson, a refusé de dire si l'enquête du ministère de la Justice influencerait le soutien futur de son agence aux approches algorithmiques de la protection de l'enfance.

D'autant plus que les budgets se resserrent, les agences à court d'argent cherchent désespérément à se concentrer sur les enfants qui ont vraiment besoin de protection. Lors d'un panel de 2021, Putnam-Hornstein a reconnu que le "taux de filtrage global d'Allegheny est resté totalement stable" depuis la mise en œuvre de leur outil.

Pendant ce temps, la séparation familiale peut avoir des conséquences sur le développement des enfants tout au long de leur vie.

La fille des Hackney a déjà été placée dans deux familles d'accueil et a passé plus de la moitié de sa vie loin de ses parents.

En février, on lui a diagnostiqué un trouble qui peut perturber son sens du goût, selon l'avocat d'Andrew Hackney, Robin Frank, qui a ajouté que la jeune fille avait toujours du mal à manger, même en famille d'accueil.

"Je veux vraiment récupérer mon enfant", a déclaré Andrew Hackney. "Ça fait très mal. Tu n'as aucune idée à quel point c'est mauvais.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd