Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2090

Incidents associés

Incident 3358 Rapports
UK Visa Streamline Algorithm Allegedly Discriminated Based on Nationality

Loading...
L'utilisation de l'intelligence artificielle par le ministère de l'Intérieur pour diffuser les demandes de visa
kingsleynapley.co.uk · 2019

La croissance de la technologie a apporté beaucoup d'efficacité et de sécurité à presque toutes les organisations et entreprises. Mais ces progrès ont peut-être pris une tournure légèrement erronée, car le recours à l'intelligence artificielle par le ministère de l'Intérieur en tant qu'outil de diffusion en continu pour les demandes de visa peut en fait remplir ses fonctions sur la base de préjugés raciaux.

La semaine dernière, le [Guardian a rapporté] (https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim) une action en justice a été déposée par le Conseil conjoint pour le bien-être des immigrés (JCWI) contre le ministère de l'Intérieur pour l'utilisation d'un algorithme qui filtre les demandes de visa sur des motifs potentiellement illégaux tels que la « nationalité ». Cela fait suite à un rapport du Financial Times en juin de cette année selon lequel le Home Office utilisait "secrètement" l'algorithme pour traiter demandes de visas. Le ministère de l'Intérieur a depuis confirmé que cette technologie n'est utilisée que pour attribuer des applications et non pour en décider. Mais pourquoi le mystère ?

Je suis parmi ceux qui considéreraient l'avancement de la technologie comme une bénédiction pour l'humanité, car je ne peux franchement pas imaginer un monde sans smartphones. D'un autre côté, certains considéreraient l'avancement de la technologie comme un désastre. Bien que cela soit légèrement dramatique, je peux voir pourquoi on en arriverait à cette conclusion. Nous dépendons de plus en plus de la technologie pour presque toutes les tâches quotidiennes. Par exemple, pour connaître les directions vers un emplacement, nous utiliserions le GPS ou pour les services de taxi, nous utiliserions les nombreuses applications sur nos téléphones. Nous ne mémorisons plus les directions car Google maps le fait pour nous. À bien des égards, de tels niveaux de dépendance à l'égard de la technologie peuvent être intimidants.

La dépendance du ministère de l'Intérieur à l'algorithme pour diffuser les demandes de visa a peut-être été mise en œuvre pour améliorer son efficacité et enfin améliorer ses normes de service et ses délais de traitement des visas (ce qui en soi est un sujet pour un autre blog). Le ministère de l'Intérieur se serait appuyé sur un algorithme qui utilise la nationalité pour diffuser les candidats dans les catégories verte, jaune et rouge. Indépendamment de l'affirmation que le ministère de l'Intérieur a donnée pour confirmer que l'algorithme n'est utilisé que pour attribuer les candidatures et non pour prendre des décisions, la base sur laquelle ces candidats sont diffusés et leurs candidatures attribuées est cruciale. Nous ne pouvons pas être pris à célébrer les progrès technologiques de notre époque et ignorer une dépendance malsaine à l'intelligence artificielle dans la gestion de la vie des gens et, ce faisant, les discriminer en raison de leur race et de leur nationalité.

Le processus d'attribution des dossiers (par un algorithme) et d'alerte des assistants sociaux humains qu'une candidature a été diffusée en rouge, simplement sur la base de la nationalité du demandeur (si tel est bien le cas) indique déjà à l'assistant social que la candidature est un refus potentiel avant le travailleur social l'a pleinement pris en compte. En revanche, une application qui a été diffusée en tant que vert par un algorithme indique au travailleur social que ce cas mérite une approbation. Cela signifie que deux demandes presque identiques, fondées sur les mêmes motifs, sont traitées et traitées différemment. Le cas marqué comme rouge est susceptible d'être traité avec plus de suspicion et soumis à un examen approfondi et intrusif. Cependant, le cas qui a reçu le feu vert reçoit moins d'examen et est plus susceptible d'être approuvé.

Il ne faut pas être un génie pour savoir quelles nationalités/races sont susceptibles d'obtenir le feu rouge et lesquelles sont susceptibles d'obtenir le feu vert. Certains peuvent accepter la justification de cela et dire que la raison d'une telle distinction sur la base de la nationalité peut être due au fait que certains candidats de quelques pays sélectionnés peuvent avoir déjà enfreint les lois sur l'immigration et sont donc considérés comme à plus haut risque, il est donc d'accord pour que tout le monde avec ces nationalités soit peint avec le même pinceau. C'est gênant d'écrire et encore moins de le dire à haute voix. Pourquoi un demandeur qui souhaite sincèrement rendre visite à sa famille au Royaume-Uni devrait-il être soumis à un examen plus rigoureux et traité différemment parce que les demandeurs précédents de son pays de nationalité ont dépassé la durée de séjour ou ont commis un crime ? Un demandeur ne devrait être tenu de respecter cette norme que s'il a personnellement enfreint une loi sur l'immigration et / ou commis un crime lui-même dans le passé. Appliquer une norme sévère à un tout nouveau candidat simplement parce que sa nationalité correspond à celle d'anciens délinquants est à la fois injuste et préjudiciable. Les candidats de toutes nationalités ont le potentiel d'enfreindre les règles d'immigration.

Outre l'examen accru et les risques de refus, la rationalisation à elle seule signifie que les délais de traitement des demandes varieront en fonction, par exemple, de la nationalité du demandeur. Il arrive presque toujours que tous les candidats souhaitent et aient besoin que leur candidature soit traitée le plus rapidement possible. Ils paient tous les mêmes frais élevés du Home Office, y compris souvent pour un traitement prioritaire, et reçoivent pourtant des normes de service différentes en fonction des caractéristiques préconçues des candidats. Traiter les candidats qui ont été classés en rouge (sur la seule base de leur nationalité) différemment des candidats qui ont été classés en vert sur la base également de leur seule nationalité pour la même candidature est sans aucun doute discriminatoire.

La nationalité est une caractéristique protégée en vertu de la loi de 2010 sur l'égalité et une autorité publique telle que le ministère de l'Intérieur doit, lorsqu'elle prend des décisions de nature stratégique sur la manière d'exercer ses fonctions, tenir dûment compte de l'opportunité de les exercer d'une manière qui soit conçu pour réduire les inégalités de résultats_...”

Comme mentionné ci-dessus, si les demandeurs de visa sont traités différemment parce qu'ils ont été diffusés en tant que red par un algorithme, cela explique non seulement pourquoi nous avons un nombre si élevé de refus de visa britannique pour les visiteurs africains au Royaume-Uni, mais cela indique également que le Le ministère de l'Intérieur peut en fait enfreindre la loi sur l'égalité. Par conséquent, alors que l'utilisation de la technologie doit être appréciée pour l'amélioration remarquable qu'elle a apportée à nos vies, elle ne doit pas être programmée pour encourager les préjugés raciaux car cela aggrave une situation déjà mauvaise.

En conclusion, le ministère de l'Intérieur doit donc être transparent sur le fonctionnement de l'algorithme et sur la base sur laquelle il a été conçu pour diffuser les demandes de visa. Il sera intéressant de voir si l'action en justice de JCWI révèle tous les détails et la base sur laquelle l'algorithme fonctionne - qui pourrait par exemple être diffusé non seulement contre la nationalité mais aussi le sexe et l'âge.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd