Incidentes Asociados
El primer proyecto australiano tenía como objetivo probar el uso de cámaras e IA para facilitar la monitorización de los residentes bajo cuidado, con el fin de simplificar la vida del personal.
Sin embargo, una revisión del piloto realizada por PwC [pdf] mostró que la tecnología producía falsos positivos con tal frecuencia que se generó fatiga de alerta entre el personal, y al menos un incidente real (un residente que se cayó) no recibió respuesta.
La tecnología se programó para detectar cuatro tipos clave de incidentes, definidos como "caídas, asistencia, llamada de auxilio y/o gritos".
Sin embargo, PwC detectó desde el principio la preocupación de que la programación de estos eventos no se ajustara a los patrones de movimiento habituales de los residentes de los centros.
Además, el sistema estaba configurado para ser excesivamente sensible a los niveles de ruido en las instalaciones y no podía distinguir entre objetos inanimados y personas hasta que se lo parcheó.
El resultado final fue una avalancha de "falsas alertas" que abrumaron al personal y a los administradores de las instalaciones.
PwC afirmó que "SA Health y los centros piloto preveían un umbral de 10 falsas alertas diarias".
En promedio, el número de falsas alertas diarias triplicó esa cantidad y superó las 12 000 en dos centros durante el año de prueba.
Un alto porcentaje de estas alertas fueron caídas que implicaron que el personal realizara un movimiento de flexión de rodillas (agacharse) para movilizar a un residente, según la revisión.
A lo largo del ensayo, el algoritmo de IA marcó como problemáticos los movimientos o sonidos que se esperan razonablemente en residencias y activó las alertas repetidamente.
Si bien el algoritmo mejoró en la detección de eventos realmente problemáticos, PwC descubrió que seguía generando un alto número de falsas alertas al mes en los dos centros, incluso al finalizar el piloto de 12 meses.
En los últimos meses del piloto, el personal ya no pudo responder a todas las alertas, indicó.
Hubo al menos un caso en el que el personal no respondió a una alerta que resultó ser una caída real de un residente.
La revisión de PwC expresa cautela respecto a las conclusiones que deben extraerse de su trabajo.
Por ejemplo, no revisó la capacidad de la tecnología en sí y añadió que el enfoque adoptado para la prueba piloto podría haber subestimado el tiempo necesario para adecuarla a un centro de atención a personas mayores.
"Unas pruebas contextuales más exhaustivas antes de la prueba piloto de la tecnología en todo un centro de atención residencial podrían contribuir a una mejor implementación", aconsejó la consultora.
Añadió que, "si se utiliza la IA como parte del sistema de vigilancia, no debe subestimarse el tiempo necesario para entrenarla en el contexto de uso".
También señaló que, en general, a los residentes no les preocupaban los falsos positivos, no los consideraban disruptivos y, en algunos casos, la atención adicional les tranquilizó.
Sin embargo, PwC afirmó que al final del ensayo de 12 meses no se llegó a una conclusión definitiva sobre si la tecnología supuso una diferencia significativa en la calidad y la seguridad de la atención a las personas mayores.
En comentarios televisados coincidiendo con la publicación del informe de PwC, el Ministro de Salud y Bienestar de Australia del Sur, Chris Picton, dijo: "Fue una implementación absolutamente fallida de este ensayo que ocurrió durante el año pasado".