Incidentes Asociados
Un estudio reveló que un programa piloto de 12 meses de tecnología de vigilancia basada en IA, diseñada para detectar caídas y abusos en dos residencias de ancianos del sur de Australia, generó más de 12 000 alertas falsas.
La gran cantidad de alertas generó una fatiga que sobrecargó al personal, ya de por sí sobrecargado, y en al menos un caso, las falsas alertas persistentes provocaron que un miembro del personal no respondiera a una caída real de un residente.
El programa piloto de CCTV comenzó en Mt Pleasant Aged Care y Hortgate House en marzo de 2021, con cámaras y micrófonos instalados en zonas comunes y habitaciones de los residentes. 41 de los 57 residentes o sus tutores dieron su consentimiento para que se activaran los dispositivos de grabación en las habitaciones.
El proyecto tenía como objetivo explorar la aceptabilidad y viabilidad del uso de la vigilancia y el monitoreo en residencias de ancianos, con el objetivo de mejorar la calidad del apoyo y la seguridad en la atención a personas mayores.
Durante la Comisión Real sobre Calidad y Seguridad en la Atención a Personas Mayores, que duró tres años, se escucharon informes contradictorios sobre el sector. Esta Comisión formuló decenas de recomendaciones de mejora en su informe final de marzo de 2021.
El sistema se programó para detectar movimientos o sonidos específicos, como caídas, asistencia, llamadas de auxilio o gritos, y envió un mensaje de texto a un centro de monitoreo cuando se produjo un evento. El mensaje se transmitió posteriormente al personal del centro de atención a personas mayores.
La IA utilizada también se diseñó para aprender con el tiempo y mejorar su capacidad de reconocer las acciones o señales de audio específicas de los centros y los residentes.
Sin embargo, una evaluación independiente de PwC (https://www.sahealth.sa.gov.au/wps/wcm/connect/003cf018-d20e-4451-89fe-1f2ed4939052/Evaluation+of+the+CCTV+Pilot+Project.pdf?MOD=AJPERES&CACHEID=ROOTWORKSPACE-003cf018-d20e-4451-89fe-1f2ed4939052-obN9nuq) determinó que la tecnología de IA tenía una alta tasa de alertas, lo que significa que el piloto aún no era lo suficientemente preciso para detectar incidentes en un centro residencial de atención a personas mayores. A pesar de las mejoras realizadas con el tiempo, durante los 12 meses del piloto, el sistema generó más de 12 000 alertas en los dos centros que no se verificaron como "eventos reales", según el informe, y agregó que un alto porcentaje de estas alertas correspondían a personal agachado, un movimiento programado.
En estos casos, aunque el sistema detectaba movimientos o sonidos programados para detectar, no pudo distinguir con fiabilidad entre los eventos programados y movimientos o sonidos similares que son razonables esperar en residencias de acogida.
El informe indicó que, si bien se esperaban algunas "alertas falsas" durante el período de aprendizaje de la IA, el alto volumen fue "inesperado", lo que llevó a la introducción de una alerta de "caída sentada" que reconocía la postura agachada en el piloto en octubre de 2021.
Sin embargo, dado que el movimiento de arrodillarse se asemeja a una "posición de cuidado común utilizada por enfermeras y cuidadores, la 'posición del caballero'", el sistema también detectó este movimiento como una caída, lo que resultó en un aumento repentino de alertas falsas.
El desarrollo posterior del sistema durante los últimos meses del piloto permitió detectar algunos eventos que afectaban la calidad y la seguridad, incluyendo caídas de residentes, con un 22% de los eventos reales detectados, en comparación con solo el 2% al inicio del ensayo.
Sin embargo, la fatiga por alertas continuó, y en los últimos meses del piloto, el personal ya no pudo responder a todas las alertas, lo que provocó al menos un caso en el que el personal no respondió a una alerta que resultó ser una caída real de un residente.
La evaluación determinó que la cantidad de "falsas alertas" detectadas en los centros por el sistema de CCTV fue inesperada e inaceptable para el personal, según el informe.
La cantidad de falsas alertas en los primeros meses del piloto significa que el personal de ambos centros se vio abrumado por la carga de trabajo asociada a la respuesta a las alertas.
El informe concluyó que, al finalizar el piloto, no había evidencia de que la vigilancia basada en IA utilizada en el piloto influyera, ni positiva ni negativamente, en la calidad y la seguridad de la atención brindada en los centros. El ministro de Salud de Australia Meridional, Chris Picton, afirmó que la implementación fallida provocó que el personal respondiera repetidamente a alertas sobre un riesgo para la seguridad de los residentes cuando, para empezar, no existía ninguno.
"Eso significaba que el personal tenía que responder una y otra vez a informes falsos de este sistema, lo que implicaba que perdían tiempo de la atención al paciente para informar sobre problemas con este sistema informático defectuoso", declaró a la prensa el miércoles.
"Es evidente que el sistema no funcionaba correctamente; es inadmisible que se generen alertas falsas, y por lo tanto, el personal tuvo que tomar medidas para no poder responder a todas estas alertas falsas".
"El informe señala que, si bien hubo algunos casos de informes verdaderos, el personal no respondió porque se convirtió en el caso de 'el niño que gritó lobo' en este sistema".