Incidents associés
Ce projet, une première en Australie, visait à tester l'utilisation de caméras et de l'IA pour faciliter la surveillance des résidents pris en charge, afin de simplifier la vie du personnel.
Cependant, une analyse du projet pilote réalisée par PwC [pdf] a montré que la technologie produisait des faux positifs à un rythme tel qu'une lassitude des alertes s'est installée parmi le personnel, et qu'au moins un incident réel – la chute d'un résident – est resté sans réponse.
La technologie a été programmée pour détecter quatre types d'incidents clés : « chutes, assistance, appel à l'aide et/ou cris ».
PwC a cependant constaté dès le départ des inquiétudes quant à la manière dont ces événements avaient été programmés, qui ne correspondait pas aux habitudes de déplacement habituelles des résidents des sites.
De plus, le système était réglé pour être trop sensible aux niveaux sonores dans les établissements et était incapable de distinguer les objets inanimés des personnes jusqu'à ce qu'il soit corrigé.
Il en a résulté un flot de « fausses alertes » qui a submergé le personnel sur place et les responsables des établissements.
PwC a indiqué qu'« un seuil de 10 fausses alertes par jour était prévu par SA Health et les sites pilotes ».
En moyenne, le nombre de fausses alertes par jour était trois fois supérieur à ce chiffre, dépassant les 12 000 sur deux sites au cours de l'essai d'un an.
L'étude a révélé qu'un pourcentage élevé de ces alertes concernaient des chutes assises impliquant le personnel effectuant un mouvement de flexion des genoux (accroupissement) pour mobiliser un résident.
Tout au long de l'essai, l'algorithme d'IA a signalé comme problématiques des « mouvements ou des sons raisonnablement prévisibles en établissement » et a déclenché des alertes à plusieurs reprises.
Bien que l'algorithme ait amélioré sa capacité à détecter les événements réellement problématiques, « il a néanmoins généré un nombre élevé de fausses alertes par mois sur les deux sites », même à la fin du projet pilote de 12 mois, a constaté PwC.
« Au cours des derniers mois du projet pilote, le personnel n'était plus en mesure de répondre à toutes les alertes », a-t-il indiqué.
« Il y a eu au moins un cas où le personnel n'a pas répondu à une alerte qui s'est avérée être une véritable chute d'un résident. »
L'étude de PwC invite à la prudence quant aux conclusions à tirer de ses travaux.
Par exemple, le cabinet n'a pas examiné les capacités de la technologie elle-même et ajoute que l'approche adoptée pour son expérimentation a peut-être sous-estimé le temps nécessaire à son adaptation à un environnement de soins aux personnes âgées.
« Des tests contextuels plus complets avant de tester la technologie sur l'ensemble d'un site de soins résidentiels pourraient améliorer sa mise en œuvre », a conseillé le cabinet de conseil.
Il a ajouté que « si l'IA est utilisée dans le cadre d'un système de surveillance, le temps nécessaire à son apprentissage ne doit pas être sous-estimé. »
Il a également constaté que les résidents étaient généralement indifférents aux faux positifs, ne les trouvaient pas perturbateurs et, dans certains cas, étaient rassurés par l'attention supplémentaire accordée.
Cependant, PwC a déclaré que l'issue de l'essai de 12 mois n'avait finalement pas permis de conclure à une amélioration significative de la qualité et de la sécurité des soins aux personnes âgées.
Dans des commentaires télévisés coïncidant avec la publication du rapport de PwC, le ministre de la Santé et du Bien-être d'Australie-Méridionale, Chris Picton, a déclaré : « Le déploiement de cet essai au cours de l'année écoulée a été absolument bâclé. »