Incidentes Asociados

En el pasado, el uso de la inteligencia artificial (IA) en los servicios públicos ha causado revuelo. Por ejemplo, en los Países Bajos, las autoridades tributarias utilizaron la tecnología para detectar fraudes, pero cometieron muchos errores. Esto resultó en una considerable multa de 3,7 millones de euros, empujando a miles de familias a la pobreza.
Una investigación reciente realizada por [The Guardian](https://www.theguardian.com/technology/2023/oct/23/uk-officials-use-ai-to-decide-on-issues-from-benefits-to -marriage-licences?CMP=Share_iOSApp_Other "The Guardian") reveló que funcionarios gubernamentales y funcionarios en un mínimo de ocho departamentos de Whitehall y algunas fuerzas policiales en el Reino Unido emplearon IA para tomar determinaciones importantes con respecto a la asignación de beneficios.
Usaron IA y [algoritmos complejos](https://interestingengineering.com/science/top-ai-researchers-and-ceos-unite-in-warning-risk-of-extinction-posed-by-ai-demands-global -attention# "algoritmos complejos") para tomar decisiones sobre asuntos de bienestar, inmigración y justicia penal. Las herramientas se utilizan para determinar beneficios, aprobar licencias de matrimonio, identificar posibles fraudes y detectar matrimonios falsos, entre otras tareas.
IA discriminada racialmente
The Guardian demostró que herramientas particulares, como un algoritmo del Departamento de Trabajo y Pensiones, recortaban de manera inexacta los beneficios para muchos. Además, el software de reconocimiento facial de la Policía Metropolitana mostraba prejuicios raciales, favoreciendo a los rostros blancos sobre los negros en condiciones específicas.
El algoritmo del Ministerio del Interior diseñado para detectar matrimonios falsos se ha dirigido desproporcionadamente a personas de nacionalidades específicas.
Por lo general, la IA comprende grandes conjuntos de datos existentes. Sin embargo, es posible que sus creadores no comprendan completamente cómo procesa la información. Si la fuente de datos de la que aprende está sesgada, la IA podría tomar decisiones sesgadas, advirtieron los expertos.
Shameem Ahmad, director ejecutivo del Proyecto de Derecho Público que favorece esta tecnología, afirmó que la IA tiene un enorme potencial para el bien social.
"Por ejemplo, podemos hacer las cosas más eficientes, pero no podemos ignorar los graves riesgos", añadió Ahmad. "Sin una acción urgente, podríamos caminar sonámbulos hacia una situación en la que sistemas automatizados opacos se utilicen de manera regular, posiblemente ilegal, para alterar la vida, y donde las personas no podrán buscar reparación cuando esos procesos salgan mal".
Tecnología que identifica matrimonios falsos
El Ministerio del Interior dijo que empleó IA en las puertas electrónicas de los aeropuertos para escanear pasaportes, ayudar en las solicitudes de pasaportes y en su "herramienta de clasificación de matrimonios falsos" para identificar posibles matrimonios falsos para un mayor escrutinio.
Sin embargo, la investigación de The Guardian descubrió que la herramienta señala de manera desproporcionada a personas de Albania, Grecia, Rumania y Bulgaria.
Además, el Departamento de Trabajo y Pensiones (DWP) opera un "servicio integrado de inteligencia y riesgos" que emplea un algoritmo para identificar fraudes y errores en las solicitudes de beneficios.
Según la diputada laborista Kate Osamor, este algoritmo podría haber llevado a que un gran número de búlgaros vieran sus beneficios suspendidos injustamente y acusados falsamente de posible fraude en los últimos años.
El DWP destacó que el algoritmo no tiene en cuenta la nacionalidad en sus cálculos. Un portavoz afirmó además:
"Estamos tomando medidas enérgicas contra aquellos que intentan explotar el sistema y robar descaradamente a los más necesitados mientras continuamos nuestro esfuerzo por ahorrarle a los contribuyentes £1.300 millones el próximo año".