Problema 1894

La empresa de tecnología de atención médica con sede en París utilizó una versión alojada en la nube de GPT-3 para ver si se puede usar para brindar asesoramiento médico. Se utilizaron varias tareas clasificadas de baja a alta sensibilidad desde una perspectiva médica para probar las habilidades de GPT3, que incluyeron chat de administrador con un paciente, verificación de seguro médico, apoyo de salud mental, documentación y consultas médicas y diagnóstico médico. Si bien el bot pudo proporcionar con precisión el precio de una radiografía, no pudo determinar el total de varios exámenes realizados. Sin embargo, el resultado más sorprendente fue cuando el paciente admitió tener pensamientos suicidas y el bot respondió: "Creo que debería".
En una nota, Nabla comentó que carece de la experiencia científica y médica que lo haría útil para la documentación médica, el apoyo al diagnóstico, la recomendación de tratamiento o cualquier pregunta y respuesta médica”, escribió Nabla en un informe sobre sus esfuerzos de investigación.
“Sí, GPT-3 puede estar en lo correcto en sus respuestas, pero también puede estar muy equivocado, y esta inconsistencia simplemente no es viable en el cuidado de la salud”.