Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3402

Incidents associés

Incident 61113 Rapports
UK Government AI Allegedly Targets Disproportionate Numbers of Certain Nationals for Fraud Review

Loading...
L’utilisation de l’IA s’est élargie pour évaluer les demandes de crédit universel et lutter contre la fraude
theguardian.com · 2023

Le gouvernement a élargi son déploiement de l’intelligence artificielle pour découvrir la fraude sociale, malgré les avertissements concernant les biais algorithmiques à l’encontre des groupes de demandeurs vulnérables.

Dans le cadre d'un investissement de 70 millions de livres sterling appliquant des « analyses avancées » aux demandes de crédit universel (UC), le ministère du Travail et des Retraites (DWP) a étendu l'utilisation de l'apprentissage automatique alors qu'il tente d'économiser plus d'un milliard de livres sterling sur les 8 milliards de livres sterling. perdu à cause de la fraude et des erreurs l'année dernière, [documents d'audit](https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1167946/annual-report-accounts-2022-23 -web-ready.pdf) scruté par le Guardian.

Le projet ne semble pas avoir été officiellement annoncé par le gouvernement, accusé de garder le secret sur l’IA dans le système de protection sociale. S'il est étendu, il a le potentiel d'atteindre une grande partie des 5,9 millions de personnes qui réclament des soins de CU.

Après un essai l'année dernière utilisant un logiciel automatisé pour signaler les fraudeurs potentiels cherchant des avances de fonds UC, une technologie similaire a été développée et testée pour analyser les demandes d'aide sociale déposées par les personnes vivant ensemble, les travailleurs indépendants et ceux souhaitant une aide au logement, ainsi que pour évaluer les affirmations des gens sur leur capital personnel, comme leur épargne.

Les organisations de défense des droits sociaux et les experts de l’ONU ont déjà déclaré que l’extension du système de protection sociale britannique « numérique par défaut » avec l’apprentissage automatique sans une plus grande transparence risquait de créer de graves problèmes pour certains demandeurs de prestations.

Big Brother Watch, un groupe britannique de défense des libertés civiles, a déclaré qu'il était « inquiétant » que le gouvernement « poursuive des modèles d'IA encore plus opaques alors qu'il admet que sa capacité à surveiller les injustices est limitée ».

"Le DWP refuse systématiquement de publier des informations sur son fonctionnement, à l'exception des détails les plus vagues", a déclaré Jake Hurfurt, responsable de la recherche et des enquêtes.

L’extension de l’automatisation de l’aide sociale est résumée dans la déclaration du contrôleur et auditeur général dans le dernier rapport annuel du DWP. Il affirme que le DWP a « une gouvernance et un contrôle stricts sur son utilisation de l’apprentissage automatique », mais il révèle que les responsables ont détecté « des preuves de préjugés envers les demandeurs plus âgés ».

Un algorithme testé l’année dernière a été alimenté avec des données sur la fraude des précédents demandeurs pour lui apprendre à prédire quels nouveaux demandeurs de prestations pourraient tricher. Les décisions finales sont prises par un humain.

Le vérificateur général a mis en garde contre « un risque inhérent que les algorithmes soient biaisés en faveur de la sélection des réclamations à examiner émanant de certaines personnes ou groupes vulnérables présentant des caractéristiques protégées ».

Le DWP a admis que sa « capacité à tester les impacts injustes sur les caractéristiques protégées est actuellement limitée », ont-ils déclaré.

Le gouvernement est sous pression pour accroître la confiance du public dans son utilisation de l’IA, et le vérificateur général l’a exhorté à publier son évaluation des biais dans les modèles d’apprentissage automatique.

Le DWP a jusqu’à présent refusé de divulguer des informations sur le fonctionnement de son algorithme d’apprentissage automatique. Il a bloqué les demandes d'accès à l'information du Guardian sollicitant le nom de toute entreprise impliquée dans l'essai de détection de fraude concernant les avances sur le crédit universel, car « les détails des contrats sont commercialement sensibles ». Il refuse également de publier les résultats du procès de l’année dernière, notamment l’évaluation des préjugés à l’encontre de certains groupes de demandeurs.

Le mois dernier, Tom Pursglove, ministre des Personnes handicapées, de la Santé et du Travail, a déclaré au Parlement que le gouvernement ne publier une évaluation de l’égalité des essais d’algorithmes d’apprentissage automatique, car cela permettrait de détecter les fraudeurs « conduisant à de nouvelles fraudes et à des pertes plus importantes pour le trésor public ».

Le DWP a déclaré à l'auditeur qu'il « s'efforce de développer sa capacité à effectuer une analyse d'équité plus complète sur un plus large éventail de caractéristiques protégées ».

Un porte-parole du DWP a déclaré : « Nous continuons à explorer le potentiel des nouvelles technologies dans la lutte contre la fraude et à déployer des garanties complètes ce faisant. L’IA ne remplace pas le jugement humain lors d’enquêtes sur des fraudes et des erreurs afin de déterminer ou de refuser un paiement à un demandeur.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd