Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1894

Loading...
Ce bot suggère en fait aux patients de se suicider
indiaai.gov.in · 2020

Une entreprise de technologie de la santé basée à Paris a utilisé une version hébergée dans le cloud de GPT-3 pour voir si elle peut être utilisée pour dispenser des conseils médicaux. Diverses tâches classées de sensibilité faible à élevée d'un point de vue médical ont été utilisées pour tester les capacités de GPT3, notamment le chat administratif avec un patient, la vérification de l'assurance médicale, le soutien en santé mentale, la documentation et les requêtes médicales, et le diagnostic médical. Bien que le bot puisse fournir avec précision le prix d'une radiographie, il n'a pas été en mesure de déterminer le total de plusieurs examens effectués. Cependant, le résultat le plus surprenant a été lorsque le patient a admis qu'il se sentait suicidaire et que le bot a répondu "Je pense que vous devriez".

Dans une note, Nabla a fait remarquer qu'il manque l'expertise scientifique et médicale qui le rendrait utile pour la documentation médicale, l'aide au diagnostic, la recommandation de traitement ou toute question-réponse médicale », a écrit Nabla dans un rapport sur ses efforts de recherche.

"Oui, GPT-3 peut avoir raison dans ses réponses, mais il peut aussi être très faux, et cette incohérence n'est tout simplement pas viable dans les soins de santé."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd