Incidents associés

Un commissaire à l’information australien a ordonné à l’agence de protection de l’enfance de l’État de Victoria de cesser d’utiliser des services d’IA générative. Selon le commissaire à l’information, le personnel de l’agence a saisi une quantité importante d’informations personnelles dans ChatGPT pour créer un rapport sur les risques auxquels un enfant particulier pourrait être confronté s’il continuait à vivre avec ses parents, qui étaient prétendument des délinquants sexuels.
En utilisant ChatGPT, le personnel a fini par minimiser les risques pour l’enfant, a expliqué le commissaire à l’information. Par exemple, le rapport a fini par présenter la poupée de l’enfant – que le père utilisait à des fins sexuelles – comme les efforts des parents pour s’assurer que leur enfant ait des « jouets adaptés à son âge ». Le Commissaire à l’information a ordonné à l’agence de protection de l’enfance de mettre en œuvre le blocage du protocole Internet et/ou le blocage du serveur de noms de domaine pour empêcher son personnel d’utiliser l’IA, d’ici le 5 novembre 2024. Cela n’inclut pas les outils d’IA générative qui sont des fonctionnalités des moteurs de recherche, ce qui signifie que le personnel pourra toujours accéder à des outils tels que l’aperçu de l’IA de Google.
Comme indiqué dans l’ordonnance du Commissaire à l’information, l’utilisation de ChatGPT par l’agence est « un exemple très réel des risques de confidentialité associés à GenAI ». Cela ajoute aux dommages qui peuvent survenir lorsqu’une personne utilise des informations personnelles de manière inappropriée en s’appuyant sur ces outils. Les outils d’IA sont de nature probabiliste, ce qui signifie que si quelqu’un tape quelque chose comme « Mieux vaut tard que… » comme invite, l’IA terminera la phrase par un résultat comme « jamais », car il y a une forte probabilité que « jamais » soit le résultat espéré par l’utilisateur, a expliqué Nikhil Pahwa, fondateur et rédacteur en chef de MediaNama, lors d’un événement plus tôt cette année.
Cela signifie que l’IA ne recherche pas l’exactitude lorsqu’elle donne des réponses, mais prend simplement des décisions en fonction de ce que l’utilisateur souhaite. Ainsi, si les agences gouvernementales devaient s’appuyer sur des modèles d’IA, leurs décisions pourraient être inexactes ou potentiellement dangereuses, en particulier lorsqu’elles traitent d’informations personnelles sensibles ou de situations critiques impliquant des personnes vulnérables. En outre, l’utilisation gouvernementale d’outils d’IA présente également des risques pour la vie privée. Si une agence gouvernementale transmet les informations personnelles des personnes à un chatbot d’IA, ces informations (comme les informations personnelles d’un enfant dans le cas australien) finiraient par faire partie de l’ensemble de données de formation des entreprises d’IA.
En novembre de l’année dernière, l’Australie a publié des directives sur la manière dont le secteur public devrait utiliser les outils d’IA. Ces directives soulignaient deux principes d’or :
- Les entités de service public doivent partir du principe que toutes les informations qu’elles saisissent dans un modèle d’IA peuvent devenir publiques. Elles ne doivent révéler aucune information classifiée, personnelle ou autrement sensible.
- Les entités de service public doivent être en mesure d’expliquer, de justifier et de s’approprier leurs conseils et leurs décisions.
En outre, le gouvernement australien a également suggéré que les entités de service public indiquent clairement quand leurs décisions sont basées sur des modèles d’IA. Elles doivent également reconnaître les biais présents dans les outils d’IA et doivent mettre en place des processus pour garantir que leurs décisions sont équitables et répondent aux attentes de la communauté si elles s’appuient sur un résultat généré par l’IA. De même, la Nouvelle-Zélande a également conseillé aux organismes de service public de ne pas utiliser l’IA générative pour les données sensibles. Elle leur a également conseillé de ne pas saisir de données personnelles dans les outils GenAI si elles se trouvent en dehors du réseau de l’organisme de service public.
L’Inde a également publié un document de discussion mettant en avant les principes d’une IA responsable en 2022. Ce document indique que les systèmes d’IA doivent être fiables et doivent disposer de garanties intégrées pour protéger les parties prenantes. Ils doivent également traiter les personnes dans des circonstances similaires de manière égale et ne pas discriminer les individus. En outre, les principes stipulent que les données personnelles de tous les individus doivent être sûres et sécurisées, et que seul le personnel autorisé doit y avoir accès. Cependant, ces principes manquent d’instructions spécifiques pour les organismes gouvernementaux en Inde, ce qui met en évidence une lacune dans les cadres politiques du pays.