Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3410

Incidents associés

Incident 61113 Rapports
UK Government AI Allegedly Targets Disproportionate Numbers of Certain Nationals for Fraud Review

Loading...
DWP étend l'utilisation de la technologie antifraude au milieu des inquiétudes des groupes de campagne
digit.fyi · 2023

Dans un récent rapport du National Audit Office (NAO) (https://www.nao.org.uk/wp-content/uploads/2023/07/dwp-report-on-accounts-2022-23.pdf) concernant Dans les comptes financiers du ministère du Travail et des Retraites (DWP), il est apparu que le DWP étendait son utilisation de l'apprentissage automatique pour identifier les fraudes potentielles aux prestations.

Depuis 2021, le DWP utilise un modèle d’apprentissage automatique pour signaler les demandes potentiellement frauduleuses d’avances de crédits universitaires (UC). Le modèle a été créé en entraînant un algorithme utilisant des références frauduleuses et des données historiques sur les demandeurs, et il permet de prédire quelles nouvelles demandes de prestations pourraient être frauduleuses ou contenir des erreurs.

Lorsqu’une réclamation dépasse un certain seuil, elle est renvoyée à un assistant social pour examen. Le travailleur social effectue ensuite un examen manuel de la réclamation.

En réponse en 2021, Big Brother Watch, l'organisation de campagne pour les libertés civiles et la vie privée, a déclaré(https://bigbrotherwatch.org.uk/campaigns/welfare-data-watch/#GUIDE) que « Laisser un ordinateur décider de quels avantages la demande doit être examinée constitue une atteinte à la vie privée et ouvre la porte à l’injustice et à la discrimination dans le système de protection sociale.

Le rapport du NAO publié jeudi dernier a souligné que le DWP devrait investir environ 70 millions de livres sterling entre les exercices 2022-23 et 2024-25 dans des « analyses avancées » afin d’approfondir ses capacités technologiques anti-fraude.

En outre, il a souligné que depuis l’année dernière, des modèles d’apprentissage automatique similaires ont été conçus et testés pour prévenir la fraude dans quatre domaines de risque « clés » du crédit universel : les personnes vivant ensemble, le travail indépendant, le capital et le logement.

Bien que le DWP s’attende à ce que les « analyses avancées » l’aident à générer des économies de 1,6 milliard de livres sterling d’ici 2031, le rapport indique qu’il existe un « risque inhérent » que les algorithmes qui signalent les demandes de prestations pour examen soient biaisés « en raison d’un biais imprévu dans le données d’entrée ou la conception du modèle lui-même.

Bien que le rapport indique que le DWP a « une gouvernance et un contrôle stricts » de son apprentissage automatique et a mis en place des garanties, la capacité du DWP à tester les impacts injustes sur les caractéristiques protégées est « actuellement limitée ». Cela est dû au fait que les demandeurs ne répondent pas toujours aux questions facultatives axées sur les données démographiques lorsqu’ils présentent une demande de prestations.

Alison Garnham, directrice générale du Child Poverty Action Group, a déclaré que « développer la technologie tout en ignorant les appels à la transparence, à une surveillance rigoureuse et à des protections contre les préjugés risquerait de nuire gravement aux familles vulnérables », dans un commentaire fait à la BBC.

Malgré le « défi d’équilibrer la transparence sur la façon dont il utilise l’apprentissage automatique pour donner confiance au public dans le système de prestations sociales et protéger ses capacités en n’informant pas les fraudeurs sur la façon dont il lutte contre la fraude », le rapport suggère que le DWP « devrait être capable de fournir l’assurance qu’il ne traite injustement aucun groupe de clients.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd