Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5349

Incidents associés

Incident 11095 Rapports
Year-long AI Surveillance Pilot in Two South Australian Aged Care Facilities Reportedly Overwhelmed Staff with False Positives

Loading...
L'essai d'IA sur les soins aux personnes âgées en Australie du Sud a généré 12 000 fausses alertes
itnews.com.au · 2022

Ce projet, une première en Australie, visait à tester l'utilisation de caméras et de l'IA pour faciliter la surveillance des résidents pris en charge, afin de simplifier la vie du personnel.

Cependant, une analyse du projet pilote réalisée par PwC [pdf] a montré que la technologie produisait des faux positifs à un rythme tel qu'une lassitude des alertes s'est installée parmi le personnel, et qu'au moins un incident réel – la chute d'un résident – est resté sans réponse.

La technologie a été programmée pour détecter quatre types d'incidents clés : « chutes, assistance, appel à l'aide et/ou cris ».

PwC a cependant constaté dès le départ des inquiétudes quant à la manière dont ces événements avaient été programmés, qui ne correspondait pas aux habitudes de déplacement habituelles des résidents des sites.

De plus, le système était réglé pour être trop sensible aux niveaux sonores dans les établissements et était incapable de distinguer les objets inanimés des personnes jusqu'à ce qu'il soit corrigé.

Il en a résulté un flot de « fausses alertes » qui a submergé le personnel sur place et les responsables des établissements.

PwC a indiqué qu'« un seuil de 10 fausses alertes par jour était prévu par SA Health et les sites pilotes ».

En moyenne, le nombre de fausses alertes par jour était trois fois supérieur à ce chiffre, dépassant les 12 000 sur deux sites au cours de l'essai d'un an.

L'étude a révélé qu'un pourcentage élevé de ces alertes concernaient des chutes assises impliquant le personnel effectuant un mouvement de flexion des genoux (accroupissement) pour mobiliser un résident.

Tout au long de l'essai, l'algorithme d'IA a signalé comme problématiques des « mouvements ou des sons raisonnablement prévisibles en établissement » et a déclenché des alertes à plusieurs reprises.

Bien que l'algorithme ait amélioré sa capacité à détecter les événements réellement problématiques, « il a néanmoins généré un nombre élevé de fausses alertes par mois sur les deux sites », même à la fin du projet pilote de 12 mois, a constaté PwC.

« Au cours des derniers mois du projet pilote, le personnel n'était plus en mesure de répondre à toutes les alertes », a-t-il indiqué.

« Il y a eu au moins un cas où le personnel n'a pas répondu à une alerte qui s'est avérée être une véritable chute d'un résident. »

L'étude de PwC invite à la prudence quant aux conclusions à tirer de ses travaux.

Par exemple, le cabinet n'a pas examiné les capacités de la technologie elle-même et ajoute que l'approche adoptée pour son expérimentation a peut-être sous-estimé le temps nécessaire à son adaptation à un environnement de soins aux personnes âgées.

« Des tests contextuels plus complets avant de tester la technologie sur l'ensemble d'un site de soins résidentiels pourraient améliorer sa mise en œuvre », a conseillé le cabinet de conseil.

Il a ajouté que « si l'IA est utilisée dans le cadre d'un système de surveillance, le temps nécessaire à son apprentissage ne doit pas être sous-estimé. »

Il a également constaté que les résidents étaient généralement indifférents aux faux positifs, ne les trouvaient pas perturbateurs et, dans certains cas, étaient rassurés par l'attention supplémentaire accordée.

Cependant, PwC a déclaré que l'issue de l'essai de 12 mois n'avait finalement pas permis de conclure à une amélioration significative de la qualité et de la sécurité des soins aux personnes âgées.

Dans des commentaires télévisés coïncidant avec la publication du rapport de PwC, le ministre de la Santé et du Bien-être d'Australie-Méridionale, Chris Picton, a déclaré : « Le déploiement de cet essai au cours de l'année écoulée a été absolument bâclé. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd