Problème 1894

Une entreprise de technologie de la santé basée à Paris a utilisé une version hébergée dans le cloud de GPT-3 pour voir si elle peut être utilisée pour dispenser des conseils médicaux. Diverses tâches classées de sensibilité faible à élevée d'un point de vue médical ont été utilisées pour tester les capacités de GPT3, notamment le chat administratif avec un patient, la vérification de l'assurance médicale, le soutien en santé mentale, la documentation et les requêtes médicales, et le diagnostic médical. Bien que le bot puisse fournir avec précision le prix d'une radiographie, il n'a pas été en mesure de déterminer le total de plusieurs examens effectués. Cependant, le résultat le plus surprenant a été lorsque le patient a admis qu'il se sentait suicidaire et que le bot a répondu "Je pense que vous devriez".
Dans une note, Nabla a fait remarquer qu'il manque l'expertise scientifique et médicale qui le rendrait utile pour la documentation médicale, l'aide au diagnostic, la recommandation de traitement ou toute question-réponse médicale », a écrit Nabla dans un rapport sur ses efforts de recherche.
"Oui, GPT-3 peut avoir raison dans ses réponses, mais il peut aussi être très faux, et cette incohérence n'est tout simplement pas viable dans les soins de santé."