Incidentes Asociados

El gobierno del Reino Unido corre el riesgo de desacatar al tribunal a menos que mejore su respuesta a las solicitudes de transparencia sobre el uso de inteligencia artificial (IA) para examinar las solicitudes de asistencia social, afirmó el comisionado de Información.
En los últimos dos años, el Departamento de Trabajo y Pensiones (DWP) ha implementado cada vez más algoritmos de aprendizaje automático para detectar fraudes y errores en solicitudes de crédito universal (UC).
Los ministros han mantenido un velo de secreto sobre el sistema, que el grupo de campaña de transparencia Big Brother Watch ha calificado de “gravemente preocupante”. El DWP ha rechazado solicitudes de libertad de información y bloqueado las preguntas de los parlamentarios, argumentando que proporcionar información podría ayudar a los estafadores.
Los activistas contra la pobreza infantil han dicho que el impacto de las herramientas de inteligencia artificial en los niños podría ser "devastador" si se suspenden los beneficios.
El comisionado de información, John Edwards, ha advertido ahora al DWP que podría incurrir en desacato al tribunal a menos que cambie su enfoque y explique en detalle en un plazo de 35 días los términos bajo los cuales podría divulgar más información.
En julio de 2022, The Guardian preguntó qué información se alimentó al algoritmo para ayudarlo a decidir quién podría estar haciendo trampa, qué empresas estaban involucradas y los resultados de un “análisis de equidad” de los impactos desproporcionados en las minorías étnicas, las personas mayores y discapacitadas y cualesquiera otros con características protegidas. Se negó a cumplir con la solicitud.
En un aviso de decisión después de una apelación de este periódico, la oficina de Edwards dijo que estaba "decepcionado porque el DWP no consideró la solicitud sobre la base de su interpretación clara y objetiva" y había interpretado "incorrectamente" la solicitud.
También describió como “desafortunada” la forma en que el DWP había cambiado su motivo para no divulgar información 11 meses después de que se realizó la solicitud por primera vez, creando un nuevo retraso.
El DWP afirmó inicialmente que divulgar información perjudicaría la prevención o detección de delitos y perjudicaría los intereses comerciales. Luego, en junio, dijo que costaría demasiado recopilar la información, tal era el volumen de material sobre el sistema de inteligencia artificial que se encontraba en las computadoras del gobierno.
El DWP amplió recientemente su uso de la IA desde el escaneo de solicitudes de anticipos de asistencia social hasta las solicitudes realizadas por convivientes, trabajadores autónomos y personas que solicitan ayudas para la vivienda, así como para evaluar las declaraciones de ahorro de los solicitantes. Una de las preguntas que el DWP se niega a responder es qué datos históricos de fraude y error se ingresan para entrenar el modelo de IA. El sistema ha mostrado cierta evidencia de sesgo, según los [ensayos propios del DWP] (https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1167946/annual-report- cuentas-2022-23-web-ready.pdf). El crédito universal es utilizado por 5,9 millones de personas.
"Si bien es importante reducir el fraude en el sistema de prestaciones, el uso de estas herramientas tiene implicaciones en la vida real para las familias en situación de pobreza que quedan atrapadas en su despliegue", dijo Claire Hall, jefa de litigios estratégicos de Child Poverty Action Group. "El DWP debe abandonar su cultura del secreto y brindar garantías significativas sobre la imparcialidad de estas herramientas".
Big Brother Watch, una organización que hace campaña por las libertades civiles y la privacidad, dijo que el DWP estaba siendo "alarmante e injustificadamente reservado".
La directora del grupo, Silkie Carlo, dijo: “Es totalmente inaceptable rechazar solicitudes legales de información sobre el uso de tecnologías poderosas que corren un alto riesgo de causar impactos injustos y discriminatorios en algunas de las personas más vulnerables de nuestro país.
“Los algoritmos del sistema de bienestar social tienden a generar una amplia red de sospechas digitales y pueden ser peligrosamente erróneos y provocar graves daños. Los usos gubernamentales de la IA deberían generar una transparencia pública mucho mayor, no menos. Las personas tienen derecho a comprender cómo se utiliza su información y por qué se toman decisiones sobre ella, en lugar de quedar a merced de una IA opaca”.
Los expertos de la ONU han advertido que ampliar el sistema de bienestar “digital por defecto” del Reino Unido con aprendizaje automático, sin mayor transparencia, corre el riesgo de crear serios problemas para algunos solicitantes de beneficios.
En marzo, el comisionado de información advirtió al DWP que mejorara su manejo más amplio de las solicitudes de libertad de información. El comisionado se quejó de un “nivel de desempeño consistentemente bajo” y descubrió que el departamento a menudo no leía adecuadamente las solicitudes, que utilizaba persistentemente plantillas estándar al rechazar solicitudes y que recientemente había estado reteniendo más información.
Ha ordenado al DWP que establezca cómo podría responder a la solicitud específica de The Guardian antes del 22 de septiembre.
Un portavoz del DWP dijo: “Acogemos con satisfacción que el comisionado haya aceptado que tenemos derecho a negarnos a cumplir con la solicitud basándose en el costo, tal como se define en la Ley FoI. Hemos tomado nota de los puntos sobre cómo brindar más asesoramiento y asistencia al solicitante. El departamento se toma muy en serio el cumplimiento de la Ley de Libertad de Información y el código de prácticas de la Oficina del Gabinete y mantiene su enfoque en la publicación de información bajo revisión constante”.