Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3406

Incidents associés

Incident 61113 Rapports
UK Government AI Allegedly Targets Disproportionate Numbers of Certain Nationals for Fraud Review

Loading...
Le gouvernement britannique utilise l’IA pour décider du paiement des prestations et repérer les mariages simulés, révèle une enquête
uk.news.yahoo.com · 2023

L'utilisation par le gouvernement de l'intelligence artificielle (AI) risque produisant des résultats discriminatoires à l’égard des demandeurs de prestations et des minorités ethniques, a révélé une enquête.

Au total, huit départements Whitehall et certaines forces de police utilisent cette technologie en plein essor pour prendre des décisions qui changent la vie des membres du public, a rapporté the Guardian .

Dans un cas, la députée travailliste Kate Osamor a affirmé qu'un algorithme utilisé par le ministère du Travail et des Retraites (DWP) pour détecter la fraude aurait pu conduire à la suspension de leurs prestations pour des dizaines de Bulgares.

Parallèlement, une évaluation interne du ministère de l'Intérieur consultée par le Guardian a montré qu'un algorithme utilisé pour indiquer les mariages simulés privilégiait de manière disproportionnée les personnes originaires d'Albanie, de Grèce, de Roumanie et de Bulgarie.

Plusieurs forces de police utilisent des outils d’IA et des caméras de reconnaissance faciale pour la surveillance et pour prédire et prévenir de futurs crimes. L'enquête affirme que lorsque les paramètres de sensibilité sont réduits sur les caméras -- comme elles peuvent le faire dans le but d'attraper davantage de criminels -- elles ont détecté à tort au moins cinq fois plus de personnes noires que de personnes blanches.

Les résultats surviennent alors que le Royaume-Uni se prépare à accueillir un sommet international sur l'IA  à Bletchley Park. . L'événement est considéré comme un moyen pour le Royaume-Uni d'affirmer son autorité en matière de réglementation de l'IA et de lutter contre la [menace existentielle ](https://www.standard.co.uk/news/politics/rishi-sunak-prime-minister -chatgpt-bt-group-b1083551.html)certaines sommités, dont [Elon Musk,](https://www.standard.co.uk/news/world/elon-musk-warns-ai-is-vastly-more -risqué-que-la-coree-du-nord-a3611451.html) je crois que cela pose.

Mais alors que le sommet se concentre sur l’avenir de la technologie qui fait la une des journaux, la Grande-Bretagne exploite déjà l’IA dans de nombreux domaines qui affectent la vie des gens ordinaires.

L’utilisation généralisée de l’IA dans le secteur public a été découverte après que le Cabinet Office a commencé à encourager les ministères et les forces de l’ordre à divulguer volontairement leur utilisation de la technologie, en particulier lorsqu’elle pourrait avoir un impact matériel sur le grand public.

Une base de données distincte compilée par le Public Law Project suit également les outils automatisés utilisés par le gouvernement et les classe en fonction de leur transparence.

Les experts et les initiés de la technologie ont averti à plusieurs reprises que l'IA peut renforcer les préjugés  qui sont ancrés dans les ensembles de données utilisés pour entraîner les systèmes. Suite aux pressions exercées par des groupes de défense des droits sur les dangers de la police prédictive et de la surveillance par reconnaissance faciale, [l'UE a adopté une loi historique sur l'IA](https://www.standard.co.uk/news/tech/ai-act-eu-regulation- uk-government-artificial-intelligence-b1080459.html) plus tôt cette année, interdisant les systèmes.

Le DWP a déclaré au Guardian que son algorithme ne prend pas en compte la nationalité. Et le DWP et le ministère de l’Intérieur ont insisté sur le fait que les processus qu’ils utilisent sont équitables car les décisions finales sont prises par les citoyens. Le Met n'a pas répondu aux conclusions.

John Edwards, le commissaire à l'information du Royaume-Uni, a déclaré qu'il avait examiné de nombreux outils d'IA utilisés dans le secteur public, y compris les systèmes de détection de fraude du DWP, et qu'il n'en avait trouvé aucun qui enfreignait les règles de protection des données.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd