Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3401

Incidentes Asociados

Incidente 61113 Reportes
UK Government AI Allegedly Targets Disproportionate Numbers of Certain Nationals for Fraud Review

Loading...
IA empleada para decisiones cruciales en más de 8 departamentos de Whitehall
interestingengineering.com · 2023

En el pasado, el uso de la inteligencia artificial (IA) en los servicios públicos ha causado revuelo. Por ejemplo, en los Países Bajos, las autoridades tributarias utilizaron la tecnología para detectar fraudes, pero cometieron muchos errores. Esto resultó en una considerable multa de 3,7 millones de euros, empujando a miles de familias a la pobreza.

Una investigación reciente realizada por [The Guardian](https://www.theguardian.com/technology/2023/oct/23/uk-officials-use-ai-to-decide-on-issues-from-benefits-to -marriage-licences?CMP=Share_iOSApp_Other "The Guardian") reveló que funcionarios gubernamentales y funcionarios en un mínimo de ocho departamentos de Whitehall y algunas fuerzas policiales en el Reino Unido emplearon IA para tomar determinaciones importantes con respecto a la asignación de beneficios.

Usaron IA y [algoritmos complejos](https://interestingengineering.com/science/top-ai-researchers-and-ceos-unite-in-warning-risk-of-extinction-posed-by-ai-demands-global -attention# "algoritmos complejos") para tomar decisiones sobre asuntos de bienestar, inmigración y justicia penal. Las herramientas se utilizan para determinar beneficios, aprobar licencias de matrimonio, identificar posibles fraudes y detectar matrimonios falsos, entre otras tareas.

IA discriminada racialmente

The Guardian demostró que herramientas particulares, como un algoritmo del Departamento de Trabajo y Pensiones, recortaban de manera inexacta los beneficios para muchos. Además, el software de reconocimiento facial de la Policía Metropolitana mostraba prejuicios raciales, favoreciendo a los rostros blancos sobre los negros en condiciones específicas.

El algoritmo del Ministerio del Interior diseñado para detectar matrimonios falsos se ha dirigido desproporcionadamente a personas de nacionalidades específicas.

Por lo general, la IA comprende grandes conjuntos de datos existentes. Sin embargo, es posible que sus creadores no comprendan completamente cómo procesa la información. Si la fuente de datos de la que aprende está sesgada, la IA podría tomar decisiones sesgadas, advirtieron los expertos.

Shameem Ahmad, director ejecutivo del Proyecto de Derecho Público que favorece esta tecnología, afirmó que la IA tiene un enorme potencial para el bien social.

"Por ejemplo, podemos hacer las cosas más eficientes, pero no podemos ignorar los graves riesgos", añadió Ahmad. "Sin una acción urgente, podríamos caminar sonámbulos hacia una situación en la que sistemas automatizados opacos se utilicen de manera regular, posiblemente ilegal, para alterar la vida, y donde las personas no podrán buscar reparación cuando esos procesos salgan mal".

Tecnología que identifica matrimonios falsos

El Ministerio del Interior dijo que empleó IA en las puertas electrónicas de los aeropuertos para escanear pasaportes, ayudar en las solicitudes de pasaportes y en su "herramienta de clasificación de matrimonios falsos" para identificar posibles matrimonios falsos para un mayor escrutinio.

Sin embargo, la investigación de The Guardian descubrió que la herramienta señala de manera desproporcionada a personas de Albania, Grecia, Rumania y Bulgaria.

Además, el Departamento de Trabajo y Pensiones (DWP) opera un "servicio integrado de inteligencia y riesgos" que emplea un algoritmo para identificar fraudes y errores en las solicitudes de beneficios.

Según la diputada laborista Kate Osamor, este algoritmo podría haber llevado a que un gran número de búlgaros vieran sus beneficios suspendidos injustamente y acusados falsamente de posible fraude en los últimos años.

El DWP destacó que el algoritmo no tiene en cuenta la nacionalidad en sus cálculos. Un portavoz afirmó además:

"Estamos tomando medidas enérgicas contra aquellos que intentan explotar el sistema y robar descaradamente a los más necesitados mientras continuamos nuestro esfuerzo por ahorrarle a los contribuyentes £1.300 millones el próximo año".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd