Incidents associés
Une communication récente du Commissariat à l'information et à la protection de la vie privée de l'Ontario (CIPVP) souligne comment les outils d'intelligence artificielle, en constante évolution et largement accessibles, peuvent présenter des risques importants pour la protection de la vie privée des organisations.
Cette communication était une lettre adressée à un hôpital non identifié (« l'hôpital ») qui avait signalé une violation de données au CIPVP. La lettre examinait la violation, formulait une série de recommandations à l'intention de l'hôpital et demandait une mise à jour sur les mesures prises par ce dernier d'ici la fin janvier 2026. Bien que la violation se soit produite dans le secteur de la santé, soumis à des lois strictes en matière de protection de la vie privée, les leçons à en tirer s'appliquent également à d'autres secteurs.
La violation impliquait l'utilisation d'un outil de transcription du type de ceux couramment utilisés par de nombreux médecins pour documenter les interactions médecin-patient. Les outils de transcription par IA enregistrent et transcrivent les interactions médecin-patient et génèrent des résumés intégrables aux dossiers médicaux électroniques. Ces fonctions sont conçues pour alléger considérablement la charge de travail des médecins en matière de prise de notes et de tâches administratives. Bien que de nombreux outils de transcription par IA spécialisés soient désormais disponibles sur le marché, dans ce cas précis, l'outil utilisé était Otter.ai, un logiciel de transcription largement répandu et conçu pour une utilisation dans de nombreux contextes.
Cette faille de sécurité a été compliquée par le fait qu'Otter.ai agissait comme un agent IA du médecin qui l'avait téléchargé. Les agents IA peuvent effectuer diverses tâches avec un certain degré d'autonomie. Dans ce cas, l'outil peut être intégré à différentes plateformes de communication, ainsi qu'à l'agenda numérique de l'utilisateur (tel qu'Outlook). Concrètement, Otter.ai peut analyser l'agenda numérique de l'utilisateur et se connecter aux réunions planifiées. L'outil transcrit et résume ensuite la réunion. Il peut également partager le résumé et la transcription avec les autres participants, le tout sans intervention directe de l'utilisateur.
Le médecin avait téléchargé Otter.ai et lui avait donné accès à son calendrier plus d'un an après avoir quitté l'hôpital qui avait signalé la violation de données. Comme il utilisait son adresse courriel personnelle, et non son adresse professionnelle, pour les communications internes de cet hôpital, son départ en 2023 et la désactivation de son compte professionnel n'avaient pas entraîné la suppression de son adresse courriel personnelle des listes d'invitations aux réunions. Lorsqu'il a téléchargé Otter.ai en septembre 2024 et lui a donné accès à son calendrier numérique, il recevait encore des invitations de l'hôpital pour les réunions d'hépatologie. Bien que le médecin n'ait pas assisté à ces réunions après son départ, son agent IA, lui, y était. Il a assisté à une réunion en septembre 2024, a produit une transcription et un résumé, et a envoyé ce résumé, accompagné d'un lien vers la transcription complète, aux 65 personnes invitées. La violation a vraisemblablement été signalée à l'hôpital par un ou plusieurs destinataires de ces courriels. Sept patients avaient été vus lors de ces réunions d'hépatologie, et la transcription et le résumé contenaient leurs données de santé personnelles sensibles.
L'hôpital a immédiatement pris des mesures pour remédier à la violation. L'établissement a annulé l'invitation numérique envoyée au médecin et a contacté tous les destinataires du résumé et de la transcription, leur demandant de supprimer immédiatement toutes les copies du courriel et des pièces jointes frauduleuses. Il a également envoyé une note à l'ensemble du personnel pour leur rappeler qu'ils n'étaient pas autorisés à utiliser d'outils non approuvés avec leurs identifiants et/ou appareils hospitaliers. L'établissement a contacté le médecin qui avait utilisé Otter.ai et s'est assuré qu'il supprime toute connexion numérique avec l'hôpital. Il lui a également été demandé de contacter Otter.ai afin de demander la suppression de toutes les informations relatives à la réunion de leurs systèmes. Les patients concernés par la violation de données ont également été informés par l'hôpital. Afin de prévenir toute violation future, l'hôpital a mis en place des pare-feu pour bloquer l'accès sur site aux outils de transcription non approuvés, a mis à jour ses supports de formation concernant l'utilisation de ces outils et a révisé sa politique d'utilisation appropriée des informations et des technologies de l'information. La politique révisée souligne l'importance d'utiliser uniquement les ressources informatiques approuvées par l'hôpital. Elle recommande également un examen régulier des listes de participants aux réunions afin de s'assurer que les outils d'IA ou les agents automatisés n'y figurent pas.
Outre ces mesures, l'IPC a formulé d'autres recommandations, notamment que l'hôpital contacte directement Otter.ai pour demander la suppression de toute information patient qu'elle aurait pu conserver. Douze des soixante-cinq destinataires des courriels n'avaient pas confirmé leur suppression, et l'IPC a recommandé à l'hôpital de s'en assurer. Des mises à jour du protocole de gestion des violations de données de l'hôpital ont également été recommandées, ainsi que des modifications des procédures de départ afin de garantir la révocation immédiate de l'accès aux systèmes d'information hospitaliers dès le départ d'un membre du personnel. L'IPC a également recommandé l'utilisation de salles d'attente obligatoires pour toutes les réunions virtuelles afin d'empêcher l'accès aux agents d'IA non autorisés.
Cet incident met en lumière certains des défis importants auxquels sont confrontés les hôpitaux – ainsi que de nombreuses autres organisations – face au développement d'outils d'IA génératifs et d'agents largement disponibles. Alors qu'autrefois les outils sophistiqués et puissants utilisés en milieu professionnel étaient plus facilement contrôlés par l'employeur, il est de plus en plus fréquent que les employés y aient un accès indépendant. L’utilisation de l’IA parallèle est une préoccupation croissante pour les organisations, car elle peut engendrer des risques inattendus, voire indétectables, pour la protection de la vie privée et la confidentialité des renseignements. L’évolution rapide des outils d’IA autonomes, capables d’agir indépendamment, peut également poser problème, notamment lorsque les employés ne maîtrisent pas pleinement leurs fonctionnalités ni leurs paramètres par défaut.
Les associations médicales et les bureaux des commissaires à la protection de la vie privée ont commencé à élaborer des lignes directrices concernant l’utilisation des assistants de transcription IA dans la pratique médicale (voir, par exemple, les lignes directrices des bureaux des commissaires de la protection de la vie privée de la Saskatchewan et de l’Alberta). L'Ordre des médecins de l'Ontario (OMD) a même élaboré une liste de fournisseurs agréés de logiciels de transcription IA (https://omdpracticehub.com/learn/ai-scribe-program/), répondant aux normes de confidentialité et de sécurité. Or, l'outil utilisé dans ce cas précis est conçu pour tous les contextes et est disponible en versions gratuite et payante, ce qui ne fait que souligner les risques et les défis liés à ce domaine. La large diffusion de tels outils soulève d'importantes questions de gouvernance pour les organisations soucieuses de la confidentialité et de la sécurité. Même lorsqu'une organisation souscrit à un outil spécifique adapté à ses propres normes de confidentialité et de sécurité, ses employés ont toujours accès à de nombreux autres outils qu'ils utilisent déjà dans d'autres contextes. Il est donc essentiel de prendre en compte le risque qu'un employé choisisse simplement d'utiliser un outil qu'il connaît et avec lequel il est à l'aise.
Les outils de transcription plus génériques peuvent également présenter d'autres risques dans le contexte médical, car ils ne sont pas spécifiquement conçus pour un domaine particulier comme les soins de santé. Par exemple, ils peuvent avoir plus de difficultés avec la terminologie médicale, les noms de médicaments sur ordonnance ou d'autres termes techniques. Cela pourrait accroître la fréquence des erreurs dans les transcriptions et les résumés.
Le risque que les données recueillies au moyen d'outils non autorisés soient utilisées pour entraîner des systèmes d'IA souligne également les conséquences potentielles sur la protection de la vie privée et la confidentialité. En vertu de la Loi sur la protection des renseignements personnels sur la santé (LPRPS) de l'Ontario, un professionnel de la santé n'est pas autorisé à communiquer des renseignements personnels sur la santé à des tiers sans le consentement explicite du patient. L'utilisation de transcriptions ou d'enregistrements vocaux relatifs aux soins de santé pour entraîner des systèmes d'IA tiers sans ce consentement explicite est interdite. Bien que certains services indiquent n'utiliser que des renseignements « anonymisés » pour l'entraînement de leurs systèmes, la définition de ce terme peut différer de celle de la LPRPS. Par exemple, la suppression de tous les identifiants directs (noms, numéros d'identification, etc.) ne constitue pas une dépersonnalisation au sens de la LPRPS (Loi sur la protection des données personnelles de l'enfance). La LPRPS exige, outre la suppression de tous les identifiants directs, la suppression de toute information « dont on peut raisonnablement prévoir, compte tenu des circonstances, qu'elle pourrait être utilisée, seule ou combinée à d'autres informations, pour identifier une personne ».
Cet incident met en lumière la vulnérabilité des renseignements personnels sensibles dans un contexte de prolifération d'outils technologiques nouveaux (et en constante évolution) à usage personnel et professionnel. Les organisations doivent agir rapidement pour évaluer et atténuer les risques, ce qui nécessitera une sensibilisation et une formation régulières du personnel.
Note : Une version préliminaire de mon article de recherche coécrit avec Daniel Kim sur les scribes IA est disponible ici.
Cet article est également disponible sur mon blogue à l'adresse teresascassa.ca