Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6304

Loading...
L'utilisation de l'IA dans les services publics comporte des « risques élevés », selon une commission
irishtimes.com · 2025

Le gouvernement doit donner la priorité à des « garanties solides » contre les dommages causés par l'intelligence artificielle (IA), selon un organisme de défense des droits de l'homme qui a mis en garde contre les « risques élevés » liés à l'utilisation de l'IA dans les services publics.

Liam Herrick, commissaire en chef de la Commission irlandaise des droits de l'homme et de l'égalité (IHREC), a déclaré que le public souhaitait vivement une réglementation efficace.

« Nous devons nous méfier d'un discours égoïste et anti-réglementation qui priverait de protection les droits fondamentaux au profit des profits des entreprises », a-t-il déclaré. Il s'adressait aux membres de la commission de l'Oireachtas sur l'utilisation de l'IA dans la fonction publique et par les organismes publics.

M. Herrick a expliqué aux membres de la commission que l'utilisation de l'IA dans les services publics comportait des risques élevés, « notamment lorsqu'elle est utilisée pour prendre des décisions concernant les droits et les aides essentiels ».

Rebecca Keatinge, responsable du suivi et de la conformité à l'IHREC, a déclaré que des exemples « saisissants » de « discrimination algorithmique » avaient été recensés à l'étranger, notamment en ce qui concerne son utilisation dans les services publics.

Elle a par exemple cité le « scandale tristement célèbre des allocations familiales » aux Pays-Bas en 2018, qui a vu l'administration fiscale utiliser un algorithme « hautement discriminatoire » pour identifier les fraudes au sein du système d'allocations familiales.

L'algorithme, qui, selon elle, possédait sa propre capacité décisionnelle, utilisait la citoyenneté comme l'un des facteurs de risque et a conduit à « la mise sur liste noire de nationalités entières pour de très petites erreurs administratives dans leurs demandes ».

« Cela a eu des conséquences humaines véritablement dévastatrices », a-t-elle déclaré aux membres de la commission, ajoutant que des dizaines de milliers de personnes avaient été touchées.

[ L'Irlande pourrait être une « île de l'IA », mais doit agir rapidement pour créer un bureau et un observatoire de l'intelligence artificielle (ouvre dans une nouvelle fenêtre) ]

Le Danemark, qui dispose d'un niveau élevé de protection sociale, utilise également différents algorithmes pour gérer son système de protection sociale, notamment pour lutter contre la fraude, a-t-elle déclaré.

Outre l'utilisation de la citoyenneté comme indicateur, ce système identifie également des « caractéristiques atypiques qui ne correspondent pas fondamentalement aux normes sociales danoises », a-t-elle ajouté, comme la taille du ménage.

Mme Keatinge a déclaré que cela pourrait constituer un « score social ».

Le Dr Kris Shrishak, chercheur principal au Conseil irlandais pour les libertés civiles (ICCL), a quant à lui exhorté la commission à promouvoir la création d'un Bureau national de l'IA indépendant, doté d'un budget dédié, d'un commissaire et d'experts techniques.

Un Bureau national de l'IA devrait être créé d'ici août 2026 et servira de point focal pour l'IA en Irlande, « englobant la réglementation, l'innovation et le déploiement », a déclaré le ministère des Entreprises.

« Il ne devrait être hébergé par aucun ministère », a déclaré le Dr Shrishak aux membres de la commission.

Le Dr Shrishak, qui dirige les travaux de l'ICCL sur la loi sur l'IA, a souligné l'utilisation, à ce jour, de trois chatbots d'IA distincts par le ministère de la Justice pour les questions relatives à l'immigration et à la protection internationale.

Il a indiqué aux membres de la commission que, suite à des demandes d'accès à l'information, il a été découvert que le ministère « n'avait lancé aucun appel d'offres, n'avait réalisé aucune évaluation des risques, aucun test de partialité et aucune évaluation d'impact environnemental pour aucun de ces éléments ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd