Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5349

Incidentes Asociados

Incidente 11095 Reportes
Year-long AI Surveillance Pilot in Two South Australian Aged Care Facilities Reportedly Overwhelmed Staff with False Positives

Loading...
Un ensayo de inteligencia artificial en centros de atención a personas mayores en Australia del Sur generó 12.000 falsas alarmas
itnews.com.au · 2022

El primer proyecto australiano tenía como objetivo probar el uso de cámaras e IA para facilitar la monitorización de los residentes bajo cuidado, con el fin de simplificar la vida del personal.

Sin embargo, una revisión del piloto realizada por PwC [pdf] mostró que la tecnología producía falsos positivos con tal frecuencia que se generó fatiga de alerta entre el personal, y al menos un incidente real (un residente que se cayó) no recibió respuesta.

La tecnología se programó para detectar cuatro tipos clave de incidentes, definidos como "caídas, asistencia, llamada de auxilio y/o gritos".

Sin embargo, PwC detectó desde el principio la preocupación de que la programación de estos eventos no se ajustara a los patrones de movimiento habituales de los residentes de los centros.

Además, el sistema estaba configurado para ser excesivamente sensible a los niveles de ruido en las instalaciones y no podía distinguir entre objetos inanimados y personas hasta que se lo parcheó.

El resultado final fue una avalancha de "falsas alertas" que abrumaron al personal y a los administradores de las instalaciones.

PwC afirmó que "SA Health y los centros piloto preveían un umbral de 10 falsas alertas diarias".

En promedio, el número de falsas alertas diarias triplicó esa cantidad y superó las 12 000 en dos centros durante el año de prueba.

Un alto porcentaje de estas alertas fueron caídas que implicaron que el personal realizara un movimiento de flexión de rodillas (agacharse) para movilizar a un residente, según la revisión.

A lo largo del ensayo, el algoritmo de IA marcó como problemáticos los movimientos o sonidos que se esperan razonablemente en residencias y activó las alertas repetidamente.

Si bien el algoritmo mejoró en la detección de eventos realmente problemáticos, PwC descubrió que seguía generando un alto número de falsas alertas al mes en los dos centros, incluso al finalizar el piloto de 12 meses.

En los últimos meses del piloto, el personal ya no pudo responder a todas las alertas, indicó.

Hubo al menos un caso en el que el personal no respondió a una alerta que resultó ser una caída real de un residente.

La revisión de PwC expresa cautela respecto a las conclusiones que deben extraerse de su trabajo.

Por ejemplo, no revisó la capacidad de la tecnología en sí y añadió que el enfoque adoptado para la prueba piloto podría haber subestimado el tiempo necesario para adecuarla a un centro de atención a personas mayores.

"Unas pruebas contextuales más exhaustivas antes de la prueba piloto de la tecnología en todo un centro de atención residencial podrían contribuir a una mejor implementación", aconsejó la consultora.

Añadió que, "si se utiliza la IA como parte del sistema de vigilancia, no debe subestimarse el tiempo necesario para entrenarla en el contexto de uso".

También señaló que, en general, a los residentes no les preocupaban los falsos positivos, no los consideraban disruptivos y, en algunos casos, la atención adicional les tranquilizó.

Sin embargo, PwC afirmó que al final del ensayo de 12 meses no se llegó a una conclusión definitiva sobre si la tecnología supuso una diferencia significativa en la calidad y la seguridad de la atención a las personas mayores.

En comentarios televisados coincidiendo con la publicación del informe de PwC, el Ministro de Salud y Bienestar de Australia del Sur, Chris Picton, dijo: "Fue una implementación absolutamente fallida de este ensayo que ocurrió durante el año pasado".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd