Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2214

Incidents associés

Incident 37314 Rapports
Michigan's Unemployment Benefits Algorithm MiDAS Issued False Fraud Claims to Thousands of People

Loading...
L'utilisation de l'algorithme par le gouvernement sert de fausses accusations de fraude
undark.org · 2020

En 2014, Carmelita Colvin vivait juste au nord de Détroit et suivait des cours dans un collège local, lorsqu'elle a reçu une lettre de l'Agence d'assurance-chômage du Michigan. La lettre indiquait qu'elle avait commis une fraude au chômage et qu'elle devait plus de 13 000 $ en remboursement de prestations et d'amendes. La réaction de Colvin, se souvient-elle, a été : « Cela doit être impossible. Je n'y crois tout simplement pas. Elle avait perçu des allocations de chômage en 2013 après que l'entreprise de nettoyage pour laquelle elle travaillait l'ait laissée partir, mais elle avait été éligible. Elle ne comprenait pas pourquoi elle était accusée de fraude. Ce que Colvin n'avait pas réalisé à l'époque, c'est que des milliers d'autres personnes à travers l'État vivaient la même chose. L'agence avait introduit un nouveau programme informatique - le Michigan Integrated Data Automated System, ou MiDAS - non seulement pour détecter la fraude, mais aussi pour accuser automatiquement les personnes de fausses déclarations et exiger le remboursement. Bien que l'agence n'ait toujours pas rendu public les détails de l'algorithme, les recours collectifs allèguent que le système a recherché des ensembles de données sur le chômage et utilisé des hypothèses erronées pour signaler des fraudes, comme le renvoi à un employeur qui a déclaré qu'un employé avait démissionné - et était donc inadmissibles aux prestations — alors qu'ils ont été réellement mis à pied. Sur une période de deux ans, l'agence a facturé plus de 40 000 personnes, leur facturant environ cinq fois les prestations initiales, qui comprenaient le remboursement et des amendes de 400 % plus les intérêts. Au milieu d'un tollé ultérieur, l'agence a ensuite effectué un audit partiel et a admis que 93% des changements étaient erronés - pourtant l'agence avait déjà pris des millions de personnes et n'avait pas réussi à les rembourser pendant des années. Jusqu'à présent, l'agence n'a fait aucune déclaration publique expliquant exactement ce qui n'allait pas. (Lynda Robinson, une représentante de l'agence, a refusé la demande d'entretien d'Undark par e-mail, en écrivant : "Nous ne pouvons pas commenter en raison d'un litige en cours.") L'utilisation par le gouvernement de systèmes automatisés est en augmentation dans de nombreux domaines, de la justice pénale et des soins de santé à l'évaluation des enseignants. au recrutement. Mais les personnes qui utilisent les algorithmes ne comprennent pas toujours comment ils fonctionnent, et les fonctions sont encore plus obscures pour le public. "Ces types d'outils peuvent être utilisés pour éclairer le jugement humain, mais ils ne devraient jamais remplacer les êtres humains", a déclaré Frank Pasquale, professeur de droit à l'Université du Maryland qui étudie la responsabilité dans l'utilisation de ces algorithmes opaques. L'un des grands dangers, a-t-il dit, est que les systèmes ne donnent pas aux gens le droit à une procédure régulière. Si un algorithme est "utilisé par le gouvernement, il devrait y avoir une transparence totale", a-t-il ajouté - à la fois dans le fonctionnement du logiciel et les données qu'il utilise - "pour les personnes concernées, à tout le moins". Dans des cas comme celui du Michigan, des systèmes automatisés défectueux punissent les personnes que les agences sont censées aider, a déclaré Michele Gilman, professeur de droit à l'Université de Baltimore qui dirige une clinique juridique qui représente des clients dans des affaires d'intérêt public. Elle a indiqué à d'autres exemples, y compris algorithmes adoptés dans des États comme l'Arkansas et l'Idaho que les agences utilisaient pour réduire les prestations de Medicaid, parfois à tort. Et les problèmes s'étendent au-delà des États-Unis : en 2019, un tribunal néerlandais [trouvé](https://www.theguardian.com/technology/2020/feb/05/welfare-surveillance-system-violates-human-rights-dutch -règles judiciaires) qu'un algorithme utilisé pour détecter la fraude à l'aide sociale violait les droits de l'homme et a ordonné au gouvernement de cesser de l'utiliser. Au Michigan, alors que l'agence affirme avoir remboursé 21 millions de dollars, les avocats dans les recours collectifs soutiennent que cela ne tient pas compte de tous les dommages. Des gens comme Colvin ont subi un préjudice à long terme – beaucoup sont sortis avec un crédit endommagé et ont perdu des opportunités d'emploi et des maisons. Plus d'un mille a déposé son bilan. Près de la moitié des États américains ont modernisé l'infrastructure logicielle et informatique de leurs systèmes d'assurance-chômage. Dans de nombreux cas, ces mises à jour sont cruciales pour assurer le bon fonctionnement des systèmes et beaucoup aident en fait les demandeurs à déposer plus facilement des demandes de prestations. Mais ce n'est pas toujours le cas - en Floride, par exemple, le nouveau système adopté il y a environ cinq ans a rendu la tâche beaucoup plus difficile (https://www.nytimes.com/2014/01/11/us/floridas-site -said-to-delay-millions-in-aid-to-jobless.html)) pour que les gens postulent. Gilman et d'autres chercheurs avec lesquels Undark s'est entretenu craignent également que dans les années à venir, les États adoptent des algorithmes qui entraînent des problèmes similaires à ceux du Michigan, en particulier s'ils suppriment l'examen humain des accusations de fraude, en violation des exigences fédérales en matière de procédure régulière. Avec une augmentation sans précédent des demandes de chômage pendant la pandémie de Covid-19 – plus de 40 millions d'Américains ont déposé depuis la mi-mars – les problèmes pourraient être amplifiés. Le système automatisé du Michigan est "une étude de cas sur toutes les façons dont un algorithme peut mal tourner", a ajouté Gilman. "Les citoyens ne devraient pas être les cobayes pour tester si les systèmes fonctionnent." Le système automatisé du Michigan est apparu juste après la Grande Récession de 2007 à 2009, lorsque l'industrie automobile et d'autres industries manufacturières ont été [frappées](http://www.npc.umich.edu/publications/policy_briefs/brief30/NPC%20Policy%20Brief %20-%2030.pdf) dur et les travailleurs ont demandé des allocations de chômage à des taux élevés. Ces avantages sont destinés à aider ceux qui ont perdu un emploi sans faute de leur part, et sont financés par le gouvernement fédéral et l'État. charges sociales. Les prestations durent généralement 26 semaines, bien que le gouvernement fédéral couvre [les prestations étendues] (https://www.epi.org/publication/how-low-can-we-go-state-unemployment-insurance-programs-exclude-record- nombre-de-travailleurs-sans-emploi/) pendant les périodes de ralentissement économique, y compris la crise actuelle du Covid-19. En mars 2011, Rick Snyder, le gouverneur républicain nouvellement élu du Michigan, a signé un projet de loi raccourcir les allocations de chômage de l'État de 26 à 20 semaines. Le projet de loi a également alloué des fonds pour un logiciel permettant de détecter la fraude au chômage. L'agence de chômage de l'État a embauché trois entreprises privées pour développer MiDAS, ainsi que des logiciels supplémentaires. Le nouveau système était destiné à remplacer celui qui avait 30 ans et à consolider les données et les fonctions qui étaient auparavant réparties sur plusieurs plates-formes, selon l'auto-nomination de l'agence en 2013 pour un [award](https://web.archive.org /web/20150401113325/http:/www.nascio.org/awards/nominations2014/2014/2014MI7-NASCIO%20Nomination%20-%20Michigan%20Integrated%20Data%20Automated%20System%20(MiDAS)%20&%20Unemployment%20Insurance% 20Modernization%20Project3.pdf) avec la National Association of State Chief Information Officers. Le contrat pour construire le système s'élevait à plus de 47 millions de dollars. Parallèlement à la mise à jour, l'agence a également licencié des centaines d'employés qui avaient auparavant enquêté sur les allégations de fraude. Bien que le processus exact de MiDAS ne soit pas public, des entretiens avec des avocats et des documents judiciaires issus de recours collectifs fournissent un certain contexte. Une partie du système a fouillé les dossiers des employeurs et des demandeurs dans sa base de données, puis a signalé les personnes en cas de fraude potentielle au chômage. Ensuite, MiDAS a envoyé des questionnaires à une boîte aux lettres électronique sur le site Web des prestations que les bénéficiaires n'avaient peut-être pas eu de raison de surveiller, leur a donné 10 jours pour répondre, puis leur a envoyé une lettre les informant qu'ils avaient été accusés de fraude. Après une période d'appel de 30 jours, le système a commencé à saisir les salaires et les remboursements d'impôts. L'agence a reconnu plus tard que dans la majorité des cas entre 2013 et 2015, le système fonctionnait du début à la fin sans aucun examen humain. L'utilisation de systèmes de prise de décision automatisés pour détecter la fraude est un problème car les enjeux sont si importants, a déclaré Julia Simon-Mishel, avocate à Philadelphia Legal Assistance, qui a siégé au comité consultatif pour la modernisation des allocations de chômage en Pennsylvanie au cours des deux dernières années. Les systèmes automatisés ne collectent pas toujours les informations clés ou ne permettent pas « les allers-retours requis par [les directives fédérales] (https://oui.doleta.gov/dmstree/uipl/uipl2k16/uipl_0116.pdf), en termes des conversations que les États doivent avoir avec un employeur et un travailleur », a-t-elle déclaré. "Si vous utilisez simplement l'analyse pour signaler automatiquement la fraude sans rien d'autre, vous avez un problème d'entrée et de sortie d'ordures", a-t-elle ajouté. "Qui sait si les données que vous utilisez pour créer vos analyses prédictives sont correctes ?" Certaines des mauvaises données proviennent d'erreurs d'application simples et involontaires. Les demandes de prestations publiques sont souvent compliquées, a déclaré Gilman, qui les a appelées "le code des impôts pour les pauvres". En raison de cette complexité, la majorité des trop-payés sont dus à une erreur de l'employé ou de l'employeur sur un formulaire, a déclaré Gilman. Mais, a-t-elle ajouté, "une erreur n'est pas une fraude intentionnelle". En octobre 2013, MiDAS a commencé à signaler les personnes frauduleuses. Peu de temps après, les avocats de tout l'État ont été inondés d'appels de personnes déconcertées par leurs accusations de fraude présumée. Ceux qui n'avaient pas les moyens de payer un avocat se heurtaient à un autre obstacle : à l'époque, le Michigan n'avait pas accordé le droit à une représentation juridique gratuite aux personnes accusées. fraude au chômage. (L'État a étendu ce droit par voie législative en 2017.) Certains se sont tournés vers des organisations à but non lucratif, notamment la clinique d'assurance-chômage de la faculté de droit de l'Université du Michigan (renommée la clinique des droits des travailleurs en 2019) et le Maurice and Jane Sugar Law Center for Economic and Social Justice, une organisation de défense juridique à but non lucratif à Detroit. Anthony Paris, avocat au Sugar Law Center, a déclaré à Undark que lui et ses collègues avaient aidé des centaines de clients accusés de fraude entre 2013 et 2015, dont Colvin. Au fil du temps, l'équipe juridique a reconstitué une compréhension de la source de la flambée des accusations de fraude : le nouveau système informatique avait recherché la base de données du chômage remontant à six ans et signalé les personnes pour fraude sur la base de règles sujettes aux erreurs. Une règle a conduit l'agence à accuser à tort des personnes de travailler tout en réclamant des allocations de chômage. Ici, le système a supposé, comme décrit dans un poursuite en recours collectif fédéral déposé en 2015 par Sugar Law Center et d'autres , que le revenu déclaré d'une partie de l'année a en fait été gagné sur une plus longue période. Par exemple, un demandeur nommé Kevin Grifka avait déclaré des revenus de 9 407,13 $ en 2015 avant d'être licencié au début de février de la même année et de réclamer des allocations de chômage. L'agence a affirmé plus tard qu'il avait gagné 723,62 $ par semaine tout au long du premier trimestre de l'année, y compris la période où il a dit qu'il était au chômage. Comme le décrit le procès, cela était basé sur la division de son revenu avant d'être licencié par les 13 semaines de tout le trimestre, et le même calcul erroné a été utilisé pour facturer d'autres plaignants. Le système a également accusé automatiquement les personnes de fraude intentionnelle lorsque leur histoire ne correspondait pas à celle de leur employeur. Plutôt que de charger un membre du personnel d'enquêter sur les divergences entre ce que l'employeur et l'employé ont déclaré, a déclaré Paris, le système a été programmé "pour supposer automatiquement que l'employeur avait raison". C'est ce qui a conduit à l'accusation de fraude de Colvin, selon des documents judiciaires examinés par Undark. L'employeur de Colvin a signalé qu'elle avait démissionné. Colvin a déclaré que son employeur lui avait dit qu'elle avait été suspendue de son travail en raison d'un problème signalé dans une maison qui avait été nettoyée par elle et un autre employé. Colvin n'a jamais eu de réponse et a supposé qu'elle avait été licenciée. Fin 2019, lorsque Paris a représenté Colvin lors d'une audience au tribunal, son employeur a été appelé à témoigner. L'employeur a reconnu qu'elle avait fondé son hypothèse selon laquelle Colvin avait démissionné sur les comptes de seconde main de deux autres travailleurs. Le cas de Colvin a mis en évidence un autre problème avec MiDAS : il a été conçu avec peu d'attention au droit à une procédure régulière. C'est un problème courant dans les systèmes automatisés, a déclaré Jason Schultz, professeur de droit à l'Université de New York et chercheur en droit et en politique pour l'AI Now Institute de l'école. "Même si les systèmes prétendent informer les gens, ils ne les informent généralement que du résultat final", a-t-il ajouté. «Ils ne leur donnent généralement aucune information sur la façon de comprendre réellement ce qui s'est passé, pourquoi une décision a été prise, quelles sont les preuves contre eux, quelle était la justification, quels étaient les critères et comment réparer les choses si elles sont mauvais." Bien que MiDAS comportait plusieurs étapes de notification, les formulaires étaient déroutants, amenant certaines personnes innocentes à s'auto-incriminer, selon Steve Gray - alors directeur de la clinique de l'Université du Michigan - qui a décrit le problème dans une [lettre] co-écrite (http ://www.uiafraudclassaction.com/wp-content/uploads/2017/08/bauserman-u-of-m-memo-to-dol-1.pdf) au ministère du Travail. De plus, de nombreuses personnes n'ont jamais reçu les messages. Le premier, le questionnaire, est apparu dans un compte en ligne que la plupart des gens ne consultaient que lorsqu'ils recevaient des prestations. Et au moment où la deuxième notification par lettre est arrivée, de nombreuses personnes avaient déménagé à une nouvelle adresse, selon un [rapport] de 2016 (https://audgen.michigan.gov/finalpdfs/15_16/r641031814.pdf) de l'auditeur du Michigan général. Brian Russell, un électricien de Zealand, dans le Michigan, n'a appris sa fraude présumée qu'après que l'État ait prélevé 11 000 $ sur son remboursement d'impôt de 2015. Il s'est rendu dans un bureau de l'agence nationale pour l'emploi et a été stupéfait d'apprendre qu'ils prendraient encore plus : « Ils me facturaient 22 000 $ et je n'avais aucune idée de ce qui se passait. Russell a déclaré qu'il avait tout essayé pour comprendre pourquoi il était accusé - il s'est rendu au bureau de chômage le plus proche et a appelé l'agence "probablement des centaines de fois", mais le système téléphonique était surchargé. Il attendrait des heures en attente. (Le [rapport] du vérificateur de l'État (https://audgen.michigan.gov/finalpdfs/15_16/r641031814.pdf) a révélé que sur les plus de 260 000 appels passés sur la ligne pendant les heures ouvrables au cours d'une période d'un mois en 2014, environ 90 Une fois que Russell a finalement eu une personne en ligne, il a dit qu'on lui avait dit qu'il avait raté la fenêtre de 30 jours pour faire appel. Russell a finalement obtenu une représentation de la clinique juridique de l'Université du Michigan, qui a fait appel de son cas devant un juge de droit administratif. Un juge a rejeté l'accusation de Russell et l'agence a remboursé la majeure partie de l'argent. (Russell a déclaré qu'il devait encore environ 1 500 $.) Mais entre-temps, il a déclaré qu'il devait déclarer faillite, ce qui a nui à sa cote de crédit. Et parce qu'il n'avait pas d'argent pour ses besoins de base, il a dû renoncer à certains de ses traitements contre le diabète et emménager dans le sous-sol d'un ami. Alors que le Michigan est un cas frappant d'un système automatisé qui tourne mal, ce n'est pas le seul domaine dans lequel les gouvernements utilisent des systèmes d'intelligence artificielle pour la prise de décision. De tels systèmes sont utilisés dans la justice pénale, [la police](https://www.theatlantic. com/politics/archive/2019/09/do-algorithms-have-place-policing/596851/), [services de protection de l'enfance](https://undark.org/2018/09/20/new-algorithms-perpetuate- old-biases-in-child-welfare-cases/), l'attribution des prestations de soins de santé , enseignant évaluations, et plus encore. Dans de nombreux cas, les gouvernements embauchent des entreprises privées pour construire ces systèmes, a déclaré Pasquale, et puisque les entreprises veulent protéger leur propriété intellectuelle, elles cachent parfois des détails sur le fonctionnement des produits. "La protection des secrets commerciaux est un vrai problème, car vous ne pouvez même pas comprendre quels sont les problèmes", a-t-il déclaré. Au cours des dernières années, des décideurs politiques, des universitaires et des défenseurs, y compris dans des organisations telles que l'AI Now Institute de la NYU et le Center on Privacy and Technology de Georgetown Law /www.law.georgetown.edu/privacy-technology-center/) — ont exploré différentes façons pour les gouvernements de construire des systèmes automatisés meilleurs et plus responsables. Les agences doivent également comprendre les limites d'un système particulier avant de le mettre en œuvre, a déclaré Julia Stoyanovich, professeure adjointe d'informatique à NYU. "Ma conviction est que les gens au gouvernement pensent simplement que l'IA est magique d'une manière ou d'une autre", a-t-elle déclaré, ce qui peut entraîner de gros problèmes lorsque les systèmes automatisés ne fonctionnent pas aussi bien dans la réalité. Schultz a accepté, ajoutant que lorsque les employés du gouvernement n'ont pas les connaissances ou les ressources nécessaires pour évaluer les réclamations faites par des entreprises privées, "ils ne feront que vendre de l'huile de serpent". Les défenseurs et les chercheurs poussent également les gouvernements à solliciter des conseils avant de mettre en œuvre un nouveau système, à la fois auprès d'experts et de personnes qui seront ciblées par les nouveaux outils. En 2018, l'AI Now Institute a publié un framework pour ce processus, co-écrit par Schultz. L'idée est que les gouvernements doivent réfléchir aux étapes des algorithmes avant de les déployer, a déclaré Schultz, en posant des questions telles que : « Ce système fait-il réellement ce qu'il dit qu'il va faire ? Est-ce que cela va avoir un impact sur la société d'une manière qui aide réellement et ne blesse pas ? » Les auteurs ont également suggéré que l'évaluation soit publiée et ouverte aux commentaires du public. Un autre modèle de responsabilité consiste à désigner un organisme de surveillance pour auditer les algorithmes. Début 2020, les avocats des recours collectifs du Michigan appelés pour la création d'un groupe de travail pour superviser tous les algorithmes et systèmes automatisés mis en œuvre par le gouvernement de l'État. D'autres États et villes ont formé des groupes de travail similaires. Stoyanovich, qui a fait partie d'un groupe formé à New York, a déclaré qu'elle pensait que c'était une étape importante. Mais il a également été largement critiqué - des chercheurs de l'AI Now Institute et d'autres organisations, par exemple, ont critiqué l'effort pour ne pas impliquer de manière adéquate la communauté au sens large . Et bien que les organes de surveillance puissent être importants, a déclaré Pasquale, ils doivent avoir de "vraies dents" afin d'assurer une application significative. Mais l'une des plus grandes questions est de savoir si et quand utiliser des algorithmes pour commencer - en particulier pour les outils qui pourraient rapidement éroder la vie privée et les libertés civiles telles que la [reconnaissance faciale] (https://www.perpetuallineup.org/). "Je ne pense pas qu'un gouvernement doive adopter l'un de ces systèmes", a déclaré Schultz. "Je pense que dépenser des millions de dollars pour un système non éprouvé qui n'a aucune responsabilité et aucun moyen de s'assurer qu'il fonctionne est une très, très mauvaise idée quand ce n'est pas nécessaire." En 2016 - au milieu d'un déluge de [négatif](https://www.freep.com/story/news/local/michigan/2016/04/28/ruling-awaited-class-action-suit-against- ui-agency/83605436/) médias [attention](https://fox17online.com/2016/03 /11/fear-of-filing-state-seized-millions-in-tax-returns-for-alleged-unemployment-fraud/) – Sander Levin, membre du Congrès du Michigan [poussé](https://web.archive.org/web /20161228002444/http://levin.house.gov/sites/levin.house.gov/files/documents/Governor%20Snyder%20Letter%20MiDAS.pdf) l'agence pour mener un audit interne des quelque 60 000 accusations de fraude dans le deux années précédentes. L'agence a répondu par un audit partiel, examinant 22 000 des accusations de fraude MiDAS et [déterminant](https://web.archive.org/web/20161222171838/http://levin.house.gov/press-release/state% E2%80%99s-automaticed-fraud-system-wrong-93-reviewed-unemployment-cases-2013-2105) que presque tous avaient tort. (L'agence a également examiné une autre série d'accusations de fraude portées avec un certain niveau d'examen humain ; alors que le taux d'erreur était encore élevé à 44 %, le système automatisé avait plus du double de ce taux.) En 2017, dans le cadre d'un [règlement] (https://www.bwlawonline.com/wp -content/uploads/2017/02/Zynda-ORD-2017-02-02-Robo-Fraud-Settlement-and-Dismissal.pdf) d'un recours collectif, l'agence a convenu qu'elle n'utiliserait pas le système automatisé sans être humain examen (et a précisé qu'il avait en fait arrêté la pratique fin 2015). L'agence a également accepté d'examiner et d'annuler les accusations erronées restantes qu'elle avait émises entre 2013 et 2015, signalant plus tard qu'elle avait [inversé] (https://www.fox17online.com/2017/08/11/michigan-reverses- 70-pour-cent-des-cas-de-fraude-à-rembourser-21 millions) environ les deux tiers des déterminations de fraude et avait remboursé 21 millions de dollars. Toujours en 2017, les [législateurs] des États (https://www.house.mi.gov/sessiondocs/2017-2018/testimony/Committee437-10-26-2017-3.pdf) ont adopté une loi pour empêcher une telle catastrophe de se produire. se reproduise grâce à l'amélioration des notifications d'accusation de fraude et à la réduction des amendes. Et en 2019, dans un mouvement que plusieurs avocats ont décrit à Undark comme un pas dans la bonne direction, la gouverneure du Michigan, Gretchen Whitmer, a nommé Gray, ancien chef de la clinique de droit de l'assurance-chômage à la faculté de droit de l'Université du Michigan, en tant que directeur de la agence. Dans les documents judiciaires disponibles, qui comprennent les dépositions du personnel de l'agence et des trois sociétés, aucune des personnes impliquées dans la création ou l'approbation du système automatisé n'admet sa responsabilité (comme l'ont confirmé les avocats des plaignants). Alors que les affaires en cours devraient éventuellement révéler plus de détails – y compris la découverte impliquant plus d'un million de documents tels que des e-mails internes d'agences – la poursuite mettra beaucoup de temps à se frayer un chemin devant les tribunaux, a déclaré Paris. Pendant ce temps, pour certaines personnes faussement accusées de fraude, la lutte continue. En plus du [recours collectif](https://www.courtlistener.com/opinion/4578666/patti-cahoo-v-sas-analytics-inc/?q=Cahoo%20v.%20SAS%20Analytics%20Inc .) poursuites, en mars 2020, l'actuel directeur de la clinique des droits des travailleurs de la faculté de droit de l'Université du Michigan témoignait au Comité de surveillance du Sénat de l'État qu'ils pensaient que près de 20 000 des personnes accusées par MiDAS étaient toujours activement poursuivies et que leurs salaires étaient saisis. Pour Colvin, ce n'est que début 2020, près de six ans après avoir été inculpée, qu'un juge administratif a finalement rejeté son dossier. Au milieu de cette période, en 2017, Colvin a obtenu son baccalauréat en justice pénale, en plus d'un précédent diplôme d'associé en photographie médico-légale, et a postulé pour un emploi au bureau du shérif du comté. Elle a rapidement reçu un appel lui faisant savoir qu'elle ne serait pas embauchée en raison de l'accusation de fraude et de sa dette envers l'État. Aujourd'hui, Colvin a déclaré qu'elle travaillait comme agent de sécurité pour subvenir à ses besoins et à ceux de sa fille. Elle a 32 ans et se demande si c'était une perte de temps d'obtenir deux diplômes en justice pénale. "Je ne peux pas obtenir le travail que je voulais", a-t-elle dit, "parce qu'ils ont suggéré que j'étais une criminelle."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd