Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6304

Loading...
El uso de IA en los servicios públicos conlleva “altos riesgos”, según el comité
irishtimes.com · 2025

El Gobierno debe priorizar "salvaguardias sólidas" contra los daños que plantea la inteligencia artificial (IA), según un organismo de derechos humanos que advirtió sobre los "altos riesgos" que conlleva el uso de IA en los servicios públicos.

Liam Herrick, comisionado jefe de la Comisión Irlandesa de Derechos Humanos e Igualdad (IHREC), afirmó que la ciudadanía tiene un gran interés en una regulación eficaz.

"Debemos ser cautelosos ante un discurso egoísta y antirregulación que suprima la protección de los derechos fundamentales en beneficio de las empresas", afirmó.

Se dirigía a los miembros del comité del Oireachtas que estaban considerando el uso de la IA en el servicio público y por parte de organismos estatales.

El Sr. Herrick explicó a los miembros del comité que el uso de la IA en los servicios públicos conllevaba altos riesgos, "especialmente cuando se utiliza para tomar decisiones sobre derechos y apoyos esenciales".

Rebecca Keatinge, jefa de supervisión y cumplimiento del IHREC, afirmó que se han dado ejemplos alarmantes de discriminación algorítmica en el extranjero cuando se utiliza en los servicios públicos.

Por ejemplo, mencionó el "infame escándalo de la prestación por hijo" en los Países Bajos en 2018, en el que las autoridades fiscales utilizaron un algoritmo "altamente discriminatorio" para identificar el fraude dentro del sistema de prestaciones por hijo.

El algoritmo, que, según ella, tenía su propia capacidad de decisión, utilizaba la ciudadanía como uno de los factores de riesgo y provocó que "nacionalidades enteras fueran prácticamente incluidas en listas negras por errores administrativos muy pequeños en sus solicitudes".

"Esto tuvo consecuencias humanas realmente devastadoras", declaró a los miembros del comité, añadiendo que decenas de miles de personas se vieron afectadas.

Irlanda podría ser una "Isla de la IA", pero debe actuar con prontitud para establecer una oficina y un observatorio de inteligencia artificial (Abre en ventana nueva)]

Dinamarca, que cuenta con un alto nivel de prestaciones sociales, también emplea diferentes algoritmos para gestionar su sistema, incluyendo el control del fraude, explicó.

Además de utilizar la ciudadanía como indicador, también identifica "características atípicas que no concuerdan esencialmente con las normas sociales danesas", explicó, como el tamaño del hogar.

La Sra. Keatinge afirmó que esto podría constituir una "puntuación social".

El Dr. Kris Shrishak, miembro sénior del Consejo Irlandés para las Libertades Civiles (ICCL), instó al comité a impulsar una Oficina Nacional de IA independiente, con un presupuesto específico, un comisionado y expertos técnicos.

Se prevé establecer una Oficina Nacional de IA para agosto de 2026, que actuará como punto focal para la IA en Irlanda, abarcando la regulación, la innovación y la implementación, según ha declarado el Departamento de Empresa.

"No debería estar alojada en ningún departamento gubernamental", declaró el Dr. Shrishak a los miembros del comité.

El Dr. Shrishak, quien lidera el trabajo del ICCL en la Ley de IA, señaló que el Departamento de Justicia ha utilizado hasta la fecha tres chatbots de IA distintos para consultas relacionadas con inmigración y protección internacional.

Informó a los miembros del comité que, mediante solicitudes de acceso a la información, se descubrió que el departamento "no llevó a cabo un proceso de licitación, ni una evaluación de riesgos, ni pruebas de sesgo, ni una evaluación de impacto ambiental para ninguno de estos temas".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd