Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3406

Incidentes Asociados

Incidente 61113 Reportes
UK Government AI Allegedly Targets Disproportionate Numbers of Certain Nationals for Fraud Review

Loading...
El gobierno del Reino Unido utiliza IA para decidir el pago de beneficios y detectar matrimonios falsos, revela una investigación
uk.news.yahoo.com · 2023

El uso por parte del gobierno de inteligencia artificial (AI) presenta riesgos produciendo resultados discriminatorios contra los solicitantes de prestaciones y las minorías étnicas, según ha descubierto una investigación.

Un total de ocho Whitehall departamentos y algunas fuerzas policiales están utilizando la floreciente tecnología para tomar decisiones que alteran la vida de miembros del público, informó the Guardian .

En un caso, la parlamentaria laborista Kate Osamor afirmó que un algoritmo utilizado por el Departamento de Trabajo y Pensiones (DWP) para detectar fraudes puede haber llevado a que se suspendieran las prestaciones de decenas de búlgaros.

Mientras tanto, una evaluación interna del Ministerio del Interior vista por The Guardian mostró que un algoritmo utilizado para indicar matrimonios falsos seleccionaba desproporcionadamente a personas de Albania, Grecia, Rumania y Bulgaria.

Varias fuerzas policiales están utilizando herramientas de inteligencia artificial y cámaras de reconocimiento facial para vigilancia y para predecir y prevenir delitos futuros. La investigación afirma que cuando se redujeron los ajustes de sensibilidad de las cámaras, como puede ser en un esfuerzo por atrapar a más delincuentes, detectaron incorrectamente al menos cinco veces más personas negras que blancas.

Los hallazgos se producen mientras el Reino Unido se prepara para albergar una cumbre sobre IA  en Bletchley Park. . El evento se considera un medio para que el Reino Unido establezca su autoridad en materia de regulación de la IA y enfrente la [amenaza existencial ](https://www.standard.co.uk/news/politics/rishi-sunak-prime-minister -chatgpt-bt-group-b1083551.html)algunas luminarias, incluido [Elon Musk,](https://www.standard.co.uk/news/world/elon-musk-warns-ai-is-vastly-more -risky-than-north-korea-a3611451.html) creo que plantea.

Pero mientras la cumbre se centra en el futuro de la tecnología, que acaparará los titulares, Gran Bretaña ya está aprovechando la IA en muchas áreas que afectan la vida de la gente común.

El amplio uso de la IA en el sector público se descubrió después de que la Oficina del Gabinete comenzara a alentar a los departamentos y a las fuerzas del orden a revelar voluntariamente su uso de la tecnología, específicamente cuando podría tener un impacto material en el público en general.

Una base de datos separada compilada por Public Law Project también rastrea las herramientas automatizadas utilizadas por el gobierno y las clasifica según la transparencia.

Los expertos y conocedores de la tecnología han [advertido] repetidamente (https://www.standard.co.uk/news/tech/chatgpt-study-labour-party-ai-political-bias-b1101404.html) que la IA puede reforzar los sesgos  que están integrados en los conjuntos de datos utilizados para entrenar los sistemas. Después de la presión de los grupos de derechos humanos sobre los peligros de la vigilancia policial predictiva y el reconocimiento facial, la [UE aprobó una ley histórica sobre IA](https://www.standard.co.uk/news/tech/ai-act-eu-regulation- uk-government-artificial-intelligence-b1080459.html) a principios de este año prohibió los sistemas.

El DWP dijo a The Guardian que su algoritmo no tiene en cuenta la nacionalidad. Y tanto el DWP como el Ministerio del Interior insistieron en que los procesos que utilizan son justos porque las decisiones finales las toman las personas. La Met no respondió a los hallazgos.

John Edwards, comisionado de información del Reino Unido, dijo que había examinado muchas herramientas de inteligencia artificial que se utilizan en el sector público, incluidos los sistemas de detección de fraude del DWP, y no encontró ninguna que infrinja las normas de protección de datos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd