Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6264

Incidents associés

Incident 8079 Rapports
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report

Loading...
L'OVIC juge le département responsable de violations de la vie privée via l'utilisation de ChatGPT
ovic.vic.gov.au · 2024

L'enquête révèle que le Département des Familles, de l'Équité et du Logement n'a pas pris les mesures raisonnables pour garantir l'exactitude des renseignements personnels et les protéger contre toute divulgation non autorisée.

OVIC a publié un rapport d'enquête concernant l'utilisation de ChatGPT par un intervenant en protection de l'enfance du Département des Familles, de l'Équité et du Logement (DFFH). L'intervenant a utilisé ChatGPT, un outil d'intelligence artificielle générative (GenAI), pour rédiger un rapport de demande de protection (rapport PA), un rapport soumis au tribunal pour enfants afin d'éclairer les décisions concernant la protection d'un enfant.

L'enquête a révélé que :

  • Le contenu généré par ChatGPT, puis utilisé par l'intervenant en protection de l'enfance lors de la rédaction du rapport PA, contenait des informations personnelles inexactes, ce qui minimisait les risques pour l'enfant. L'agent de protection de l'enfance a saisi une quantité importante d'informations personnelles et sensibles dans ChatGPT, notamment des noms et des informations sur les évaluations des risques concernant l'enfant. Ce faisant, il a divulgué ces informations à OpenAI, une société étrangère, et les a diffusées hors du contrôle de DFFH.

La commissaire adjointe a constaté que les contrôles mis en place par DFFH étaient insuffisants pour gérer les risques liés à l'utilisation des outils GenAI dans le contexte de la protection de l'enfance. Elle a conclu que DFFH avait enfreint les articles 3.1 et 4.1 de la Politique de protection de l'enfance (PPA) en ne prenant pas les mesures raisonnables pour garantir l'exactitude des informations personnelles et les protéger contre toute divulgation non autorisée.

DFFH a accepté les conclusions du rapport d'enquête et est désormais tenu de mettre en œuvre les mesures correctives qu'il contient.

La commissaire adjointe a émis un avis de conformité à l'encontre de DFFH afin de garantir sa conformité avec les articles 3.1 et 4.1 de la PPA. Cet avis décrit six mesures spécifiques, dont l'obligation pour DFFH de bloquer l'utilisation de ChatGPT et d'autres outils similaires par les agents de protection de l'enfance.

Le rapport d'enquête complet est disponible ici.

Citation du Commissaire à l'information de l'État de Victoria, Sean Morrison :

Cette affaire démontre que, si certaines utilisations de GenAI peuvent être bénéfiques, il existe actuellement des circonstances où les risques pour la vie privée sont tout simplement trop importants, notamment lorsque des informations extrêmement sensibles sont en jeu.

J'encourage donc toutes les organisations à évaluer les risques liés à l'utilisation de GenAI par leurs employés dans le cadre de leurs différentes fonctions et activités. Conformément à leurs obligations en vertu des IPP, les organisations doivent mettre en place des contrôles appropriés pour atténuer ces risques.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd