Problème 6304
Le gouvernement doit donner la priorité à des « garanties solides » contre les dommages causés par l'intelligence artificielle (IA), selon un organisme de défense des droits de l'homme qui a mis en garde contre les « risques élevés » liés à l'utilisation de l'IA dans les services publics.
Liam Herrick, commissaire en chef de la Commission irlandaise des droits de l'homme et de l'égalité (IHREC), a déclaré que le public souhaitait vivement une réglementation efficace.
« Nous devons nous méfier d'un discours égoïste et anti-réglementation qui priverait de protection les droits fondamentaux au profit des profits des entreprises », a-t-il déclaré. Il s'adressait aux membres de la commission de l'Oireachtas sur l'utilisation de l'IA dans la fonction publique et par les organismes publics.
M. Herrick a expliqué aux membres de la commission que l'utilisation de l'IA dans les services publics comportait des risques élevés, « notamment lorsqu'elle est utilisée pour prendre des décisions concernant les droits et les aides essentiels ».
Rebecca Keatinge, responsable du suivi et de la conformité à l'IHREC, a déclaré que des exemples « saisissants » de « discrimination algorithmique » avaient été recensés à l'étranger, notamment en ce qui concerne son utilisation dans les services publics.
Elle a par exemple cité le « scandale tristement célèbre des allocations familiales » aux Pays-Bas en 2018, qui a vu l'administration fiscale utiliser un algorithme « hautement discriminatoire » pour identifier les fraudes au sein du système d'allocations familiales.
L'algorithme, qui, selon elle, possédait sa propre capacité décisionnelle, utilisait la citoyenneté comme l'un des facteurs de risque et a conduit à « la mise sur liste noire de nationalités entières pour de très petites erreurs administratives dans leurs demandes ».
« Cela a eu des conséquences humaines véritablement dévastatrices », a-t-elle déclaré aux membres de la commission, ajoutant que des dizaines de milliers de personnes avaient été touchées.
Le Danemark, qui dispose d'un niveau élevé de protection sociale, utilise également différents algorithmes pour gérer son système de protection sociale, notamment pour lutter contre la fraude, a-t-elle déclaré.
Outre l'utilisation de la citoyenneté comme indicateur, ce système identifie également des « caractéristiques atypiques qui ne correspondent pas fondamentalement aux normes sociales danoises », a-t-elle ajouté, comme la taille du ménage.
Mme Keatinge a déclaré que cela pourrait constituer un « score social ».
Le Dr Kris Shrishak, chercheur principal au Conseil irlandais pour les libertés civiles (ICCL), a quant à lui exhorté la commission à promouvoir la création d'un Bureau national de l'IA indépendant, doté d'un budget dédié, d'un commissaire et d'experts techniques.
Un Bureau national de l'IA devrait être créé d'ici août 2026 et servira de point focal pour l'IA en Irlande, « englobant la réglementation, l'innovation et le déploiement », a déclaré le ministère des Entreprises.
« Il ne devrait être hébergé par aucun ministère », a déclaré le Dr Shrishak aux membres de la commission.
Le Dr Shrishak, qui dirige les travaux de l'ICCL sur la loi sur l'IA, a souligné l'utilisation, à ce jour, de trois chatbots d'IA distincts par le ministère de la Justice pour les questions relatives à l'immigration et à la protection internationale.
Il a indiqué aux membres de la commission que, suite à des demandes d'accès à l'information, il a été découvert que le ministère « n'avait lancé aucun appel d'offres, n'avait réalisé aucune évaluation des risques, aucun test de partialité et aucune évaluation d'impact environnemental pour aucun de ces éléments ».