Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4139

Incidents associés

Incident 8079 Rapports
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report

Loading...
L'agence de protection de l'enfance de Victoria interdit l'utilisation de l'IA après la débâcle du rapport
newsbytesapp.com · 2024

Quelle est l'histoire

L'agence de protection de l'enfance de Victoria a interdit à son personnel d'utiliser des services d'intelligence artificielle (IA) générative. Cette décision intervient après qu'il a été découvert qu'un employé avait saisi des informations personnelles importantes, notamment le nom d'un enfant vulnérable, dans ChatGPT. Le ministère des Familles, de l'Équité et du Logement a signalé cet incident au Bureau du Commissaire à l'information de Victoria (Ovic) en décembre dernier.

Le rapport contenant les informations personnelles a été soumis à un tribunal pour enfants dans une affaire impliquant un jeune enfant. Les parents de cet enfant étaient accusés d'infractions sexuelles, bien que ces accusations ne soient pas directement liées à l'enfant. L'enquête d'Ovic sur l'incident a révélé plusieurs signes indiquant l'utilisation de ChatGPT dans la rédaction du rapport, notamment un langage non standard et des structures de phrases inappropriées.

Le rapport d'Ovic a souligné que certaines parties du rapport de protection de l'enfance contenaient des informations personnelles inexactes. Un exemple préoccupant était la fausse représentation d'une poupée d'enfant, qui aurait été utilisée par le père à des fins sexuelles. Le système d'IA a décrit cela comme un aspect positif des efforts des parents pour fournir des « jouets adaptés à l'âge ». Cette mauvaise utilisation de ChatGPT a été considérée comme diminuant la gravité du préjudice potentiel causé à l'enfant et aurait pu influencer les décisions concernant sa prise en charge.

Ovic a déclaré que la saisie des informations dans ChatGPT constituait une divulgation non autorisée d'informations sous le contrôle du département. Une enquête ultérieure a révélé que l'employé aurait pu utiliser ChatGPT dans 100 cas lors de la préparation de documents liés à la protection de l'enfance. Entre juillet et décembre 2023, près de 900 employés ont accédé au site Web de ChatGPT, ce qui représente près de 13 % de l'effectif. Cependant, aucun de ces cas n'a eu un impact aussi important que le rapport initial.

L'employé a avoué avoir utilisé ChatGPT pour générer le rapport « pour gagner du temps et présenter son travail de manière plus professionnelle », mais a nié avoir saisi des informations personnelles. Cependant, des collègues ont déclaré que cet individu avait montré à d’autres comment utiliser ChatGPT en saisissant les noms des clients dans l’outil. Sur la base de ces témoignages, Ovic a conclu qu’il était probable que le travailleur ait effectivement saisi des informations personnelles dans le système.

En réponse à l’incident, Ovic a donné des ordres au département, notamment le blocage des adresses IP et des domaines de plusieurs sites Web d’IA générative tels que ChatGPT, Gemini, Meta AI et Copilot. Ce blocage doit être en place pendant deux ans à compter du 5 novembre. Le département a accepté ces conclusions et a déclaré qu’il mettrait en œuvre les ordres. Il a également confirmé que l’employé concerné n’est plus employé par lui.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd