Incidentes Asociados
El uso por parte del gobierno de inteligencia artificial (AI) presenta riesgos produciendo resultados discriminatorios contra los solicitantes de prestaciones y las minorías étnicas, según ha descubierto una investigación.
Un total de ocho Whitehall departamentos y algunas fuerzas policiales están utilizando la floreciente tecnología para tomar decisiones que alteran la vida de miembros del público, informó the Guardian .
En un caso, la parlamentaria laborista Kate Osamor afirmó que un algoritmo utilizado por el Departamento de Trabajo y Pensiones (DWP) para detectar fraudes puede haber llevado a que se suspendieran las prestaciones de decenas de búlgaros.
Mientras tanto, una evaluación interna del Ministerio del Interior vista por The Guardian mostró que un algoritmo utilizado para indicar matrimonios falsos seleccionaba desproporcionadamente a personas de Albania, Grecia, Rumania y Bulgaria.
Varias fuerzas policiales están utilizando herramientas de inteligencia artificial y cámaras de reconocimiento facial para vigilancia y para predecir y prevenir delitos futuros. La investigación afirma que cuando se redujeron los ajustes de sensibilidad de las cámaras, como puede ser en un esfuerzo por atrapar a más delincuentes, detectaron incorrectamente al menos cinco veces más personas negras que blancas.
Los hallazgos se producen mientras el Reino Unido se prepara para albergar una cumbre sobre IA en Bletchley Park. . El evento se considera un medio para que el Reino Unido establezca su autoridad en materia de regulación de la IA y enfrente la [amenaza existencial ](https://www.standard.co.uk/news/politics/rishi-sunak-prime-minister -chatgpt-bt-group-b1083551.html)algunas luminarias, incluido [Elon Musk,](https://www.standard.co.uk/news/world/elon-musk-warns-ai-is-vastly-more -risky-than-north-korea-a3611451.html) creo que plantea.
Pero mientras la cumbre se centra en el futuro de la tecnología, que acaparará los titulares, Gran Bretaña ya está aprovechando la IA en muchas áreas que afectan la vida de la gente común.
El amplio uso de la IA en el sector público se descubrió después de que la Oficina del Gabinete comenzara a alentar a los departamentos y a las fuerzas del orden a revelar voluntariamente su uso de la tecnología, específicamente cuando podría tener un impacto material en el público en general.
Una base de datos separada compilada por Public Law Project también rastrea las herramientas automatizadas utilizadas por el gobierno y las clasifica según la transparencia.
Los expertos y conocedores de la tecnología han [advertido] repetidamente (https://www.standard.co.uk/news/tech/chatgpt-study-labour-party-ai-political-bias-b1101404.html) que la IA puede reforzar los sesgos que están integrados en los conjuntos de datos utilizados para entrenar los sistemas. Después de la presión de los grupos de derechos humanos sobre los peligros de la vigilancia policial predictiva y el reconocimiento facial, la [UE aprobó una ley histórica sobre IA](https://www.standard.co.uk/news/tech/ai-act-eu-regulation- uk-government-artificial-intelligence-b1080459.html) a principios de este año prohibió los sistemas.
El DWP dijo a The Guardian que su algoritmo no tiene en cuenta la nacionalidad. Y tanto el DWP como el Ministerio del Interior insistieron en que los procesos que utilizan son justos porque las decisiones finales las toman las personas. La Met no respondió a los hallazgos.
John Edwards, comisionado de información del Reino Unido, dijo que había examinado muchas herramientas de inteligencia artificial que se utilizan en el sector público, incluidos los sistemas de detección de fraude del DWP, y no encontró ninguna que infrinja las normas de protección de datos.