Incident 373: L'algorithme MiDAS, qui gère les allocations chômage du Michigan, a émis de fausses déclarations de fraude à des milliers de personnes.
Description: Entre 2013 et 2015, le système MiDAS du Michigan a accusé à tort plus de 34 000 personnes de fraude au chômage, ce qui aurait entraîné la ruine financière de nombreuses personnes. Conçu pour réduire les coûts, ce système automatisé a jugé les cas de fraude sans surveillance humaine. Cela a entraîné un taux d'erreur de 85 %. Les victimes ont été confrontées à des saisies sur salaire, certaines ont perdu leur logement et d'autres ont été mises en faillite. Malgré les avertissements précoces, l'UIA du Michigan a défendu MiDAS jusqu'à ce que des poursuites judiciaires et la pression fédérale imposent des réformes. Les législateurs ont réclamé des indemnisations pour les personnes accusées à tort.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: Fast Enterprises et CSG Government Solutions developed an AI system deployed by Michigan Unemployment Insurance Agency, which harmed unemployed Michigan residents falsely accused of fraud et Michigan residents who faced bankruptcy or foreclosure due to MiDAS.
Système d'IA présumé impliqué: Michigan Integrated Data Automated System (MiDAS)
Statistiques d'incidents
ID
373
Nombre de rapports
14
Date de l'incident
2013-10-01
Editeurs
Khoa Lam, Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional