Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2119

Incidentes Asociados

Incidente 3364 Reportes
UK Home Office's Sham Marriage Detection Algorithm Reportedly Flagged Certain Nationalities Disproportionately

Loading...
El Ministerio del Interior se niega a explicar el algoritmo secreto del matrimonio falso
freemovement.org.uk · 2021

El Ministerio del Interior ha rechazado el último intento de Public Law Project (PLP) de obtener más información sobre los criterios algorítmicos secretos utilizados para decidir si un matrimonio propuesto debe investigarse como una "farsa".

Las investigaciones de matrimonios falsos pueden ser invasivas y desagradables y parece que están dirigidas a algunas nacionalidades más que a otras. PLP está preocupado por la falta de transparencia y la posible discriminación involucrada en el sistema de clasificación automatizado, y nos gustaría contactarnos con las personas que puedan verse afectadas, así como con las organizaciones que los apoyan. Si conoce a alguien que esté siendo investigado o en riesgo de serlo, póngase en contacto.

El algoritmo del matrimonio falso

Documentos obtenidos previamente por el PLP en virtud de la Ley de Libertad de Información de 2000 indicar que un sistema de clasificación entra en juego si uno o ambos de una pareja que ha notificado al registrador provienen de fuera del Espacio Económico Europeo, no están establecidos en el Reino Unido o carecen de una visa válida. Si se cumple una de estas condiciones, la pareja es referida al sistema de triaje.

Un algoritmo procesa los datos de la pareja, aplica criterios secretos y asigna a la pareja una luz verde o roja. Una luz roja indica que se requiere una investigación para identificar o descartar actividades falsas. Se pide a la pareja que proporcione más información y, a menudo, que asista a una entrevista y coopere con las visitas domiciliarias. Este puede ser un proceso muy intrusivo, al que muchas parejas pueden negarse a aceptar.

Si se niegan, la pareja no podrá casarse. Si cumplen, los oficiales de inmigración usarán la nueva información para determinar si el matrimonio es una farsa. Si la decisión va en contra de la pareja, aún pueden casarse, pero su estatus migratorio estará en riesgo y una u otra parte puede enfrentar la expulsión del Reino Unido.

A pesar de las reiteradas solicitudes del PLP, el Ministerio del Interior se ha negado a revelar los criterios utilizados por el algoritmo.

¿Por que preocuparse?

Tal como lo entendemos actualmente, hay tres preocupaciones principales sobre el sistema.

En primer lugar, debido a que los criterios utilizados por el algoritmo siguen siendo secretos, existen preocupaciones sobre la equidad procesal. El Ministerio del Interior insiste en que la publicación de los criterios probablemente perjudicaría su capacidad para investigar posibles matrimonios falsos y no sería de interés público. Consideramos que las normas de derecho público exigen la divulgación de cómo funciona el sistema y es poco probable que la negativa a publicar se justifique por motivos de interés público. Cuando las decisiones se toman mediante un algoritmo, debe haber transparencia y rendición de cuentas.

En segundo lugar, existe la preocupación de que el algoritmo pueda ser discriminatorio. Esto se debe a que algunas nacionalidades, como la búlgara, la griega, la rumana y la albanesa, parecen ser objeto de investigación con mayor probabilidad que otras.

Puede ser que la nacionalidad esté incluida en los criterios del algoritmo. Si este es el caso, entonces el algoritmo puede ser directamente discriminatorio, contrario a las secciones 13 y 29 de la Ley de Igualdad de 2010. Incluso si los criterios no incluyen la nacionalidad, el algoritmo puede ser indirectamente discriminatorio si tiene un impacto sistémico negativo. sobre personas de una determinada nacionalidad, en contravención de los artículos 19 y 29 de la Ley de Igualdad de 2010.

Una tercera preocupación es que la toma de decisiones en la etapa de investigación puede tener fallas debido al "sesgo de automatización": es decir, una dependencia excesiva de los sistemas automatizados de soporte de decisiones. Si el funcionario que realiza una investigación de matrimonio falso es consciente de que el algoritmo ha dado luz roja a la pareja, puede estar predispuesto a concluir que la relación es una farsa. En otras palabras, el sistema puede fomentar la confianza en consideraciones irrelevantes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd