Incidents associés

Le ministère de l'Intérieur utilise un algorithme pour déterminer si un mariage doit faire l'objet d'une enquête comme une "imposture", selon des documents obtenus par le Public Law Project en vertu de la Freedom of Information Act.
PLP craint que cet algorithme ne soit défectueux et discriminatoire car certaines nationalités semblent plus susceptibles d'être ciblées par une enquête que d'autres.
Entrer en contact
Notre équipe de recherche est désireuse d'entendre toute personne qui estime avoir été injustement ciblée par une enquête sur un mariage fictif, et de toute organisation travaillant dans ce domaine. Vous pouvez contacter Jack Maxwell, l'un de nos chercheurs, à j.maxwell@publiclawproject.org.uk.
Arrière plan
Le Royaume-Uni dispose d'un cadre juridique détaillé pour cibler les «mariages fictifs»: où les couples se marient pour éviter la loi sur l'immigration, plutôt que parce qu'ils ont une relation authentique. Dans le cadre de ce cadre, les officiers de l'état civil sont tenus de renvoyer les mariages proposés au ministère de l'Intérieur si l'une des parties ou les deux sont soumises au contrôle de l'immigration.
Depuis au moins avril 2019, le ministère de l'Intérieur utilise un algorithme pour trier ces renvois. L'algorithme attribue à chaque couple une note « Rouge » ou « Verte ». « Rouge » signifie que le ministère de l'Intérieur doit enquêter sur le couple « pour exclure ou identifier une activité fictive », tandis que « Vert » signifie qu'une enquête n'est pas justifiée. Les rapports des médias indiquent que les enquêtes sur les faux mariages peuvent être très envahissantes.
Les éléments de base de l'algorithme du Home Office sont présentés ci-dessous :
PLP craint que cet algorithme ne soit défectueux et discriminatoire. En particulier, les documents du ministère de l'Intérieur montrent que certaines nationalités, notamment les Bulgares, les Grecs, les Roumains et les Albanais, ont leurs mariages classés "rouges" à un taux beaucoup plus élevé que d'autres. Le ministère de l'Intérieur a - jusqu'à présent - refusé de divulguer tous les «facteurs de risque» utilisés par l'algorithme pour évaluer un cas. Les risques de discrimination dans la prise de décision algorithmique sont bien connus. En août de l'année dernière, le ministère de l'Intérieur scrapped un algorithme qu'il utilisait pour aider à décider des demandes de visa, face aux allégations selon lesquelles il était discriminatoire sur le plan racial .
L'équipe de recherche de PLP continue d'étudier cet algorithme, dans le cadre de nos travaux en cours sur le suivi du gouvernement automatisé.