Incidents associés

Le gouvernement britannique risque l’outrage au tribunal s’il n’améliore pas sa réponse aux demandes de transparence sur l’utilisation de l’intelligence artificielle (IA) pour examiner les demandes d’aide sociale, a déclaré le commissaire à l’information.
Au cours des deux dernières années, le ministère du Travail et des Retraites (DWP) a déployé de plus en plus d'algorithmes d'apprentissage automatique pour détecter les fraudes et les erreurs dans les demandes de crédit universel (UC).
Les ministres ont maintenu le secret sur le système, que le groupe de campagne pour la transparence Big Brother Watch a qualifié de « sérieusement préoccupant ». Le DWP a refusé les demandes d’accès à l’information et bloqué les questions des députés, arguant que fournir des informations pourrait aider les fraudeurs.
Les militants contre la pauvreté des enfants ont déclaré que l’impact des outils d’IA sur les enfants pourrait être « dévastateur » si les prestations étaient suspendues.
Le commissaire à l'information, John Edwards, a maintenant averti le DWP qu'il pourrait être coupable d'outrage au tribunal à moins qu'il ne modifie son approche et précise dans les 35 jours les conditions dans lesquelles il pourrait divulguer davantage d'informations.
En juillet 2022, le Guardian a demandé quelles informations avaient été fournies à l’algorithme pour l’aider à décider qui pourrait tricher, quelles entreprises étaient impliquées, et quels étaient les résultats d’une « analyse d’équité » des impacts disproportionnés sur les minorités ethniques, les personnes âgées et handicapées et tous autres avec des caractéristiques protégées. Il a refusé d'accéder à la demande.
Dans un avis de décision suite à un appel interjeté par ce journal, le bureau d’Edwards s’est déclaré « déçu que le DWP n’ait pas examiné la demande sur la base de son interprétation claire et objective » et ait « mal » interprété la demande.
Il a également qualifié de « regrettable » la façon dont le DWP avait modifié la raison pour laquelle il ne divulguait pas d'informations 11 mois après la première demande, créant ainsi un nouveau retard.
Le DWP a initialement affirmé que la divulgation d’informations nuirait à la prévention ou à la détection de la criminalité et nuirait aux intérêts commerciaux. Puis, en juin, il a déclaré que la collecte d’informations coûterait trop cher, étant donné le volume de documents sur le système d’IA conservés sur les ordinateurs du gouvernement.
Le DWP a récemment étendu son utilisation de l’IA, passant de l’analyse des demandes d’avances sociales aux demandes déposées par les cohabitants, les travailleurs indépendants et les personnes demandant une aide au logement, ainsi qu’à l’évaluation des déclarations d’épargne des demandeurs. L’une des questions auxquelles le DWP refuse de répondre est de savoir quelles données historiques sur les fraudes et les erreurs sont saisies pour entraîner le modèle d’IA. Le système a montré des preuves de biais, selon les [propres essais du DWP](https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1167946/annual-report- comptes-2022-23-web-ready.pdf). Le crédit universel est utilisé par 5,9 millions de personnes.
« Bien qu'il soit important de réduire la fraude dans le système de prestations, l'utilisation de ces outils a des implications réelles pour les familles pauvres qui se retrouvent prises dans leur déploiement », a déclaré Claire Hall, responsable des litiges stratégiques au Child Poverty Action Group. « Le DWP doit abandonner sa culture du secret et fournir une assurance significative quant à l’équité de ces outils. »
Big Brother Watch, une organisation de défense des libertés civiles et de la vie privée, a déclaré que le DWP était « d’une manière alarmante et injustifiée secrète ».
La directrice du groupe, Silkie Carlo, a déclaré : « Il est totalement inacceptable de refuser des demandes légales d’informations sur l’utilisation de technologies puissantes qui présentent un risque élevé d’avoir des conséquences injustes et discriminatoires sur certaines des personnes les plus vulnérables de notre pays.
« Les algorithmes du système de protection sociale ont tendance à jeter un large réseau de suspicion numérique et peuvent se révéler dangereusement erronés, entraînant de graves préjudices. Les utilisations gouvernementales de l’IA devraient déclencher une transparence publique bien plus grande, et non moins. Les gens ont le droit de comprendre comment leurs informations sont utilisées et pourquoi des décisions sont prises à leur sujet, plutôt que d’être laissés à la merci d’une IA opaque.
Les experts de l’ONU ont averti que l’extension du système de protection sociale britannique « numérique par défaut » avec l’apprentissage automatique, sans une plus grande transparence, risque de créer de graves problèmes pour certains demandeurs de prestations.
En mars, le commissaire à l'information a averti le DWP d'améliorer son traitement plus large des demandes d'accès à l'information. Le commissaire s’est plaint d’un « niveau de performance constamment médiocre » et a constaté que le ministère ne lisait souvent pas correctement les demandes, qu’il utilisait constamment des modèles standards pour refuser les demandes et qu’il avait récemment retenu davantage d’informations.
Il a ordonné au DWP d’exposer comment il pourrait être en mesure de répondre à la demande spécifique du Guardian d’ici le 22 septembre.
Un porte-parole du DWP a déclaré : « Nous nous félicitons que le commissaire ait convenu que nous sommes en droit de refuser de répondre à la demande sur la base du coût, tel que défini dans la loi FoI. Nous avons noté les points concernant la fourniture de conseils et d'assistance supplémentaires au demandeur. Le ministère prend très au sérieux son respect de la loi sur la liberté d’information et du code de bonne pratique du Cabinet Office et maintient son approche en matière de publication d’informations sous examen constant.