Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4138

Incidents associés

Incident 8079 Rapports
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report

Loading...
Un travailleur de la protection de l'enfance de Victoria utilise ChatGPT pour signaler une protection
cyberdaily.au · 2024

L’agence de protection de l’enfance de Victoria a reçu l’ordre d’interdire l’utilisation d’outils d’IA après qu’un travailleur social a utilisé ChatGPT pour rédiger un rapport de protection d’enfant, ce qui a entraîné la soumission de données sensibles et la génération d’un certain nombre d’inexactitudes.

Le Bureau du Commissaire à l’information de Victoria (OVIC) a reçu des rapports sur l’incident en décembre dernier après que le Département des familles, de l’équité et du logement (DFFH) a découvert qu’un travailleur social était soupçonné d’avoir rédigé un rapport de demande de protection à l’aide de ChatGPT.

Le rapport a été utilisé devant le tribunal pour enfants dans une affaire concernant un enfant qui avait changé de famille à la suite d’infractions sexuelles.

L’OVIC a maintenant constaté que le DFFH n’avait pas « pris de mesures raisonnables » pour protéger les données personnelles de l’enfant et garantir un rapport précis.

Bien que le résultat pour l’enfant n’ait pas changé, il a déterminé qu’« une quantité importante d’informations personnelles et délicates » avait été saisie dans ChatGPT, ce qui signifie qu’elles ont été divulguées à OpenAI en dehors du contrôle du DFFH.

L’enquête a également révélé que le rapport contenait des données inexactes « qui minimisaient les risques pour l’enfant dans cette affaire ».

« Ce qui est particulièrement inquiétant, c’est que le rapport décrivait une poupée d’enfant – qui avait été signalée à la protection de l’enfance comme ayant été utilisée par le père de l’enfant à des fins sexuelles – comme un élément notable des efforts des parents pour soutenir les besoins de développement de l’enfant avec des « jouets adaptés à son âge » », a déclaré le commissaire à l’information de Victoria, Sean Morrison.

Les enquêtes ont mis en évidence plusieurs points indiquant que ChatGPT avait pu être utilisé pour le rapport. Finalement, le travailleur a admis avoir utilisé ChatGPT pour le rapport afin de « gagner du temps et de présenter son travail de manière plus professionnelle ». Le travailleur n’a jamais admis avoir soumis des données sensibles.

L’OVIC a enquêté plus avant sur le département et a découvert 100 cas dans lesquels ChatGPT aurait pu être utilisé pour rédiger des documents liés à la protection.

En outre, de juillet à décembre 2023, il a été déterminé que près de 900 employés (près de 13 % des employés du département) ont accédé à ChatGPT.

Suite à ces conclusions, l'OVIC a ordonné au DFFH d'interdire effectivement l'utilisation d'outils d'IA générative comme ChatGPT, obligeant le département à bloquer l'accès aux sites Web d'IA générative. Le blocage durera deux ans, à compter du 5 novembre.

L'OVIC n'a pas complètement exclu l'utilisation de la technologie, mais celle-ci devrait être utilisée spécifiquement pour assurer la sécurité des enfants vulnérables.

« Le commissaire adjoint estime qu'il peut y avoir des cas d'utilisation spécifiques où le risque est moindre que d'autres, mais que la protection de l'enfance, de par sa nature, exige les normes de soins les plus élevées », a déclaré l'OVIC.

« Toute demande de modification des actions spécifiées concernant le personnel, les informations ou les activités de protection de l'enfance devrait être accompagnée des normes les plus élevées de preuves vérifiables. »

Né au cœur de l'ouest de Sydney, Daniel Croft est un journaliste passionné qui comprend et a de l'expérience dans l'écriture dans le domaine technologique. Après avoir étudié à l'université Macquarie, il a rejoint Momentum Media en 2022, écrivant pour un certain nombre de publications, notamment Australian Aviation, Cyber Security Connect et Defence Connect. En dehors de l'écriture, Daniel s'intéresse vivement à la musique et passe son temps à jouer dans des groupes autour de Sydney.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd