Incident 1109: Un projet pilote de surveillance par IA d'un an dans deux établissements de soins pour personnes âgées d'Australie du Sud aurait submergé le personnel de faux positifs
Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
Un essai de vidéosurveillance financé par le gouvernement fédéral dans des maisons de retraite a alerté le personnel sur un tel nombre d'incidents qu'il est devenu « l'affaire du garçon qui criait au loup », a déclaré le ministre de la Sant…
Une étude a révélé qu'un projet pilote de 12 mois de technologie de surveillance basée sur l'IA, conçue pour détecter les chutes et les maltraitances dans deux maisons de retraite d'Australie du Sud, a généré plus de 12 000 fausses alertes.…
Ce projet, une première en Australie, visait à tester l'utilisation de caméras et de l'IA pour faciliter la surveillance des résidents pris en charge, afin de simplifier la vie du personnel.
Cependant, une analyse du projet pilote réalisée …
Un essai de vidéosurveillance financé par le gouvernement fédéral dans deux maisons de retraite d'Australie du Sud – où l'intelligence artificielle a été utilisée pour détecter les chutes et les cris – a généré plus de 12 000 faux incidents…
L'intelligence artificielle est rapidement adoptée pour prévenir les abus et protéger les personnes vulnérables, notamment les enfants placés en famille d'accueil, les adultes en maison de retraite et les élèves scolarisés. Ces outils prome…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents