Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 1103: Purported DOGE Contract Review Tool Cited in Reports of AI-Driven Misjudgments in VA Budget Cuts

Description: A purported AI tool using LLMs was deployed to classify Veterans Affairs contracts as expendable based on limited text and simplified criteria. The system allegedly produced hallucinated values and flagged critical healthcare and research services for cancellation. Reportedly, at least two dozen flagged contracts were later terminated.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Department of Government Efficiency , DOGE , Sahil Lavingia , Custom LLM-based contract classifier ("Munchable" tool) et OpenAI large language models, a endommagé Department of Veterans Affairs (VA) , Veterans , Veterans receiving care through the VA , VA clinical and research staff et VA contractors.
Systèmes d'IA présumés impliqués: Custom LLM-based contract classifier ("Munchable" tool) et OpenAI large language models

Statistiques d'incidents

ID
1103
Nombre de rapports
2
Date de l'incident
2025-03-18
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+1
DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts
DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts

DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts

propublica.org

DOGE's Flawed AI Tool Misinforms VA Contracts Threatening Veteran Services

DOGE's Flawed AI Tool Misinforms VA Contracts Threatening Veteran Services

seifeur.com

DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts
propublica.org · 2025

As the Trump administration prepared to cancel contracts at the Department of Veteran Affairs this year, officials turned to a software engineer with no health care or government experience to guide them.

The engineer, working for the Depar…

DOGE's Flawed AI Tool Misinforms VA Contracts Threatening Veteran Services
seifeur.com · 2025

The Department of Government Efficiency (DOGE) developed an artificial intelligence (AI) tool to identify unnecessary contracts at the Department of Veterans Affairs (VA), intending to cut costs. However, the AI system showed significant te…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 rapports
UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

Dec 2012 · 2 rapports
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 rapports
UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

UT Austin GRADE Algorithm Allegedly Reinforced Historical Inequalities

Dec 2012 · 2 rapports
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178