Incidentes Asociados

Desde que este artículo se publicó por primera vez, el fundador de Koko, Rob Morris, aclaró algunos detalles del experimento. Hemos actualizado el artículo para reflejar esto.
Un servicio de salud mental que permite a las personas recibir palabras alentadoras de apoyo y consejos de otros ha recibido críticas después de anunciar que probó las respuestas generadas por IA.
Rob Morris, fundador del servicio gratuito de salud mental Koko, describió en una serie de publicaciones en Twitter cómo la empresa probó el uso de un chatbot para ayudar a proporcionar apoyo de salud mental a unas 4000 personas. Los chatbots funcionaban con GPT-3, una IA disponible públicamente construida por la empresa OpenAI con sede en San Francisco.
La prueba permitió a los usuarios de la red de apoyo en línea de Koko solicitar la ayuda de un chatbot para redactar "palabras amables" como respuesta a las publicaciones de otras personas.
Morris describió que los usuarios de Koko calificaron los mensajes compuestos por IA como "significativamente más altos que los escritos por humanos por su cuenta", pero también dijo que "una vez que las personas supieron que los mensajes fueron co-creados por una máquina, no funcionó". extraño, vacío".
Un elemento del experimento que generó críticas fue el proceso mediante el cual los destinatarios descubrieron que los mensajes se habían redactado con la ayuda del chatbot. Inicialmente, parecía que hubo un período en el que la gente desconocía por completo, aunque Morris ha dicho que ese no era el caso y que esos mensajes incluían una nota que decía "escrito en colaboración con Koko Bot".
El experimento "plantea importantes preocupaciones éticas y morales", dice Sarah Myers West en el AI Now Institute, un centro de investigación en la ciudad de Nueva York.
Múltiples investigadores, desarrolladores de tecnología y periodistas respondieron en Twitter describiendo la manifestación como poco ética, citando problemas relacionados con [consentimiento informado] (https://www.hhs.gov/ohrp/regulations-and-policy/guidance/faq/informed-consent /index.html) y el hecho de que una junta de revisión institucional (IRB), un grupo encargado específicamente de proteger el bienestar de los sujetos de investigación. Morris dice que el experimento estaba exento del consentimiento informado.
En su sitio web, Koko dice que más de 2 millones de personas, la mayoría adolescentes, han utilizado sus servicios de apoyo de salud mental.
Hay muchos ejemplos de personas que consultan a sabiendas chatbots para obtener asesoramiento y soporte en línea, incluido el ejemplo temprano de ELIZA del científico informático Joseph Weizenbaum que se desarrolló en 1964. Pero este experimento en particular "merece todo el escrutinio minucioso que está recibiendo actualmente". dice Oeste.